4 个月前

RAAT:关系增强注意力Transformer在文档级事件抽取中的关系建模

RAAT:关系增强注意力Transformer在文档级事件抽取中的关系建模

摘要

在文档级事件抽取(Document-level Event Extraction, DEE)任务中,事件参数通常分散在多个句子中(跨句问题),并且一个文档中可能存在多个事件(多事件问题)。本文认为,事件参数之间的关系信息对于解决上述两个问题具有重要意义,并提出了一种新的DEE框架,该框架能够建模关系依赖,称为关系增强型文档级事件抽取(Relation-augmented Document-level Event Extraction, ReDEE)。具体而言,该框架引入了一种新颖且定制的变压器模型,命名为关系增强型注意力变压器(Relation-augmented Attention Transformer, RAAT)。RAAT 可以扩展以捕捉多尺度和多数量的参数关系。为了进一步利用关系信息,我们引入了一个独立的事件关系预测任务,并采用了多任务学习方法来明确提升事件抽取性能。广泛的实验表明了所提方法的有效性,其在两个公开数据集上均能实现最先进的性能。我们的代码可在 https://github.com/TencentYoutuResearch/RAAT 获取。

代码仓库

TencentYoutuResearch/EventExtraction-RAAT
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
document-level-event-extraction-on-chfinannReDEE
F1: 81.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
RAAT:关系增强注意力Transformer在文档级事件抽取中的关系建模 | 论文 | HyperAI超神经