3 个月前

基于转换的依存句法分析与栈式Transformer

基于转换的依存句法分析与栈式Transformer

摘要

在基于转换的句法分析中,对分析器状态的建模是实现优异性能的关键。循环神经网络通过建模全局状态(如栈-LSTM解析器)或上下文特征的局部状态(如双向LSTM解析器),显著提升了基于转换系统的性能。鉴于Transformer架构在近期解析系统中的成功应用,本文探索了对序列到序列Transformer架构的改进,以在基于转换的解析中建模全局或局部的解析器状态。实验表明,对Transformer的交叉注意力机制进行适当修改,能够显著提升在依存句法分析和抽象语义表示(AMR)解析任务上的性能,尤其在模型规模较小或训练数据有限的情况下效果更为显著。

代码仓库

IBM/transition-amr-parser
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
amr-parsing-on-ldc2017t10stack-Transformer (IBM)
Smatch: 79.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于转换的依存句法分析与栈式Transformer | 论文 | HyperAI超神经