3 个月前

词级共指消解

词级共指消解

摘要

近年来的共指消解模型高度依赖于片段(span)表示来识别词片段之间的共指关系。由于文本长度为 $n$ 时,片段数量为 $O(n^2)$,潜在的共指链接数量可达 $O(n^4)$,因此必须采用多种剪枝技术以使该方法在计算上可行。本文提出一种新思路:不再直接处理词片段间的共指关系,而是先建立单个词语之间的共指链接,再由此重构出完整的词片段。这一方法将共指消解模型的复杂度降低至 $O(n^2)$,并能够在不进行任何剪枝的前提下,全面考虑所有潜在提及项。此外,我们还证明,在上述改进下,用于共指消解的 SpanBERT 模型将显著落后于 RoBERTa。尽管模型结构极为高效,我们的方法在 OntoNotes 基准测试上仍能与当前先进的共指消解系统相媲美。

代码仓库

vdobrovolskii/wl-coref
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
coreference-resolution-on-conll-2012wl-coref + RoBERTa
Avg F1: 81.0
coreference-resolution-on-ontonoteswl-coref + RoBERTa
F1: 81

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
词级共指消解 | 论文 | HyperAI超神经