3 个月前

多编码器神经语义解析中的语言学信息

多编码器神经语义解析中的语言学信息

摘要

近年来,序列到序列模型在多项语义解析任务中取得了令人瞩目的性能表现。然而,这些模型通常未能充分利用现有的语言资源,而若能正确运用这些资源,性能有望进一步提升。神经机器翻译领域的研究已表明,引入此类信息具有巨大潜力,尤其是在采用多编码器(multi-encoder)架构的情况下。本文通过引入多种语义与句法资源,旨在提升话语表示结构(Discourse Representation Structure, DRS)解析任务的性能。实验结果表明:(i)语言学特征对神经网络语义解析具有显著促进作用;(ii)将这些特征融入模型的最佳方式是采用多编码器结构。

基准测试

基准方法指标
drs-parsing-on-pmb-2-2-0Character-level bi-LSTM seq2seq + linguistic features
F1: 86.8
drs-parsing-on-pmb-3-0-0Character-level bi-LSTM seq2seq + linguistic features
F1: 87.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多编码器神经语义解析中的语言学信息 | 论文 | HyperAI超神经