
摘要
我们提出了一种基于注意力机制的模型,该模型将AMR解析视为序列到图的转换。与大多数依赖预训练对齐器、外部语义资源或数据增强的AMR解析器不同,我们提出的解析器无需对齐器,并且可以在有限数量的标注AMR数据上进行有效训练。实验结果表明,我们的方法在AMR 2.0(LDC2017T10上的F1得分为76.3%)和AMR 1.0(LDC2014T12上的F1得分为70.2%)上均超过了所有先前报告的SMATCH分数。
代码仓库
sheng-z/stog
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| amr-parsing-on-ldc2014t12 | Sequence-to-Graph Transduction | F1 Full: 0.70 F1 Newswire: 0.75 |
| amr-parsing-on-ldc2014t12-1 | Two-stage Sequence-to-Graph Transducer | F1 Full: 70.2 |
| amr-parsing-on-ldc2017t10 | Sequence-to-Graph Transduction | Smatch: 76.3 |