3 个月前

通过多任务学习在共指消解中融合单例项与提及特征以实现更优的泛化能力

通过多任务学习在共指消解中融合单例项与提及特征以实现更优的泛化能力

摘要

以往将提及识别步骤整合到端到端神经共指消解模型中的尝试,因缺乏单例提及跨度(singleton mention span)数据及其他实体信息而受到限制。本文提出了一种基于多任务学习的共指消解模型,该模型能够同时学习单例提及以及实体类型、信息状态等特征。实验结果表明,该方法在OntoGUM基准测试上取得了新的最先进性能(提升2.7分),并在多个域外数据集上显著提升了模型鲁棒性(平均提升2.3分)。这一改进可能归因于其在提及识别方面具备更强的泛化能力,以及相较于仅依赖共指提及对匹配的模型,能够更充分地利用单例提及所提供的丰富数据信息。

代码仓库

yilunzhu/coref-mtl
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
coreference-resolution-on-ontogumMTL-coref
Avg F1: 68.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过多任务学习在共指消解中融合单例项与提及特征以实现更优的泛化能力 | 论文 | HyperAI超神经