3 个月前

一种用于联合实体与关系抽取的触发词感知记忆流框架

一种用于联合实体与关系抽取的触发词感知记忆流框架

摘要

联合实体与关系抽取框架构建了一个统一模型,能够同时执行实体识别与关系抽取任务,从而利用两项任务之间的依赖关系,缓解流水线模型中存在的错误传播问题。当前针对联合实体与关系抽取的研究主要通过参数共享、联合解码或其他特定技巧(例如,将任务建模为半马尔可夫决策过程,或转化为多轮阅读理解任务)来增强实体识别与关系抽取之间的交互。然而,该领域仍存在两个关键问题:其一,多数方法所采用的交互机制仍较弱且为单向,难以有效建模两项任务之间的相互依赖关系;其二,大多数方法忽略了关系触发词(relation triggers)的利用,而这些触发词能够解释人类为何在句子中识别出特定关系,对关系抽取具有重要意义,却常被忽视。为此,本文提出一种名为“触发-语义记忆流框架”(Trigger-Sense Memory Flow Framework, TriMF)的联合实体与关系抽取方法。该框架设计了一个记忆模块,用于存储在实体识别与关系抽取任务中学习到的类别表征。基于此记忆模块,进一步构建了多层级记忆流注意力机制,以增强实体识别与关系抽取之间的双向交互能力。此外,本模型引入一个无需人工标注的触发感知模块(trigger sensor module),可自动在句子中识别并增强关系触发信息,从而提升模型性能,并使模型的预测结果具备更强的可解释性。实验结果表明,所提出的框架在多个基准数据集上均取得了当前最优性能:在SciERC数据集上,关系F1值提升至52.44%(+3.2%);在ACE05数据集上达到66.49%(+4.9%);在CoNLL04数据集上为72.35%(+0.6%);在ADE数据集上达到80.66%(+2.3%),显著优于现有方法。

代码仓库

tricktreat/trimf
官方
pytorch

基准测试

基准方法指标
joint-entity-and-relation-extraction-onTriMF
Entity F1: 70.17
Relation F1: 52.44
relation-extraction-on-ace-2005TriMF
Cross Sentence: Yes
NER Micro F1: 87.61
RE Micro F1: 66.49
RE+ Micro F1: 62.77
Sentence Encoder: BERT base
relation-extraction-on-conll04TriMF
NER Micro F1: 90.3
RE+ Micro F1: 72.35

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
一种用于联合实体与关系抽取的触发词感知记忆流框架 | 论文 | HyperAI超神经