
摘要
命名实体识别和关系抽取是两个重要的基础问题。为了同时解决这两个任务,已经提出了联合学习算法,其中许多算法将联合任务视为一个表格填充问题。然而,这些方法通常专注于学习单个编码器(通常是学习以表格形式表示的特征),以便在同一个空间内捕捉两个任务所需的信息。我们认为,在学习过程中设计两个不同的编码器来捕捉这两种不同类型的信息可能是有益的。在这项工作中,我们提出了一种新颖的{\em 表格-序列编码器}(table-sequence encoders),其中设计了两个不同的编码器——一个表格编码器和一个序列编码器,以在特征表示学习过程中相互辅助。我们的实验结果证实了使用{\em 两个}编码器相比{\em 单个}编码器的优势。在多个标准数据集上,我们的模型相较于现有方法展示了显著的改进。
代码仓库
saarahasad/Relation-Extraction
GitHub 中提及
LorrinWWW/two-are-better-than-one
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| relation-extraction-on-ace-2004 | Table-Sequence | Cross Sentence: No NER Micro F1: 88.6 RE Micro F1: 63.3 RE+ Micro F1: 59.6 |
| relation-extraction-on-ace-2005 | Table-Sequence | Cross Sentence: No NER Micro F1: 89.5 RE Micro F1: 67.6 RE+ Micro F1: 64.3 Sentence Encoder: ALBERT |
| relation-extraction-on-ade-corpus | Table-Sequence | NER Macro F1: 89.7 RE Macro F1: 80.1 RE+ Macro F1: 80.1 |
| relation-extraction-on-conll04 | Table-Sequence | NER Macro F1: 86.9 NER Micro F1: 90.1 RE+ Macro F1 : 75.4 RE+ Micro F1: 73.6 |
| zero-shot-relation-triplet-extraction-on | TableSequence | Avg. F1: 6.37 |
| zero-shot-relation-triplet-extraction-on-wiki | TableSequence | Avg. F1: 6.4 |