摘要
文档级关系抽取旨在识别文档中实体对之间的关系事实,近年来受到越来越多的关注。现有方法主要可分为基于图的方法和基于Transformer的方法。然而,以往基于Transformer的方法忽略了实体间的结构信息,而基于图的方法由于将编码阶段与结构推理阶段分离,难以有效提取结构信息。为此,本文提出一种结构增强的Transformer编码器模型(Structure-Enhanced Transformer Encoder, SETE),将实体结构信息融入Transformer编码器中。首先,基于提及依赖关系构建提及级图,并将其转换为标记级图;随后,设计了一种双自注意力机制,以丰富实体间的结构信息与上下文信息,从而提升原始Transformer编码器的推理能力。在三个公开数据集上的实验结果表明,所提出的SETE模型优于此前的最先进方法,进一步的分析也验证了该模型具有良好的可解释性。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| relation-extraction-on-docred | SETE-Roberta-large | F1: 63.74 Ign F1: 61.78 |