
摘要
当前最先进的共指消解模型基于独立的提及对(mention pair)逐对决策。本文提出一种新的建模方法,能够在文档层面进行共指消解,并做出全局性决策。为此,我们采用图结构对共指关系进行建模:图中的节点代表文本中的词元(tokens),边则表示词元之间的语义关联。我们的模型以非自回归(non-autoregressive)方式预测该图结构,并基于先前的预测结果进行迭代优化,从而捕捉决策之间的全局依赖关系。实验结果表明,该方法在多个基准数据集上均取得显著提升,进一步验证了利用文档级信息有助于提升共指消解性能的假设。
代码仓库
idiap/g2g-transformer
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| coreference-resolution-on-ontonotes | G2GT SpanBERT-large overlap | F1: 80.2 |
| coreference-resolution-on-ontonotes | G2GT SpanBERT-large reduced | F1: 80.5 |