
摘要
我们提出了一种面向文档级实体级关系抽取的联合模型。与以往侧重于句子内部提及对(mention pairs)的局部建模方法不同——这些方法通常需要在提及层面进行标注——我们的模型在实体层面进行操作。为实现这一目标,我们采用了一种多任务学习框架,基于共指消解技术,并通过结合全局实体信息与局部提及信息的多层次表示,利用多实例学习机制整合相关语义信号。在DocRED数据集上,我们的模型取得了当前最优的关系抽取性能,并首次报告了面向未来研究参考的实体级端到端关系抽取结果。实验结果表明,尽管联合学习方法在性能上与任务专用学习相当,但由于参数共享和训练步骤的减少,其效率更高。
代码仓库
lavis-nlp/jerex
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| joint-entity-and-relation-extraction-on-3 | JEREX | Relation F1: 40.38 |
| relation-extraction-on-docred | JEREX-BERT-base | F1: 60.40 Ign F1: 58.44 |
| relation-extraction-on-redocred | JEREX | F1: 72.57 Ign F1: 71.45 |