
摘要
我们通过转换范式统一了不同的广泛覆盖语义解析任务,并提出了一种基于注意力机制的神经框架,该框架通过一系列语义关系逐步构建意义表示。借助多种注意力机制,转换器可以有效训练而无需依赖预训练的对齐器。在三个独立的广泛覆盖语义解析任务——抽象意义表示(AMR)、依存关系语义解析(SDP)和统一概念层次分析(UCCA)——上进行的实验表明,我们的基于注意力机制的神经转换器在AMR和UCCA任务上均优于现有方法,在SDP任务上的表现也与现有最佳方法相当。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| amr-parsing-on-ldc2014t12-1 | Broad-Coverage Semantic Parsing as Transduction | F1 Full: 71.3 |
| amr-parsing-on-ldc2017t10 | Zhang et al. | Smatch: 77.0 |
| ucca-parsing-on-semeval-2019-task-1 | Neural Transducer | English-Wiki (open) F1: 76.6 |