
摘要
通用关系抽取器,能够建模任意关系,是信息抽取领域的一个核心目标。研究人员已经尝试构建能够通过其表面形式表示关系的通用抽取器,或者将表面形式与现有知识图谱中的关系联合嵌入。然而,这两种方法在泛化能力上都存在局限性。本文基于对哈里斯分布假设在关系上的扩展以及最近在学习文本表示(特别是BERT)方面的进展,仅从实体链接文本中构建了任务无关的关系表示。我们证明,这些表示在示例基础关系抽取(FewRel)任务上显著优于先前的工作,即使没有使用该任务的任何训练数据。此外,我们还证明,使用我们的任务无关表示初始化的模型,在监督关系抽取数据集上微调后,在SemEval 2010 Task 8、KBP37和TACRED任务上的表现也显著优于之前的方法。
代码仓库
jpablou/Matching-The-Blanks-Ths
pytorch
GitHub 中提及
diffbot/knowledge-net
tf
GitHub 中提及
cypressd1999/FYP_2021
pytorch
GitHub 中提及
uf-hobi-informatics-lab/ClinicalTransformerRelationExtraction
pytorch
GitHub 中提及
Soikonomou/albert_final_infer8
pytorch
GitHub 中提及
plkmo/BERT-Relation-Extraction
pytorch
GitHub 中提及
Soikonomou/albert_final_infer12
pytorch
GitHub 中提及
Soikonomou/albert_final
pytorch
GitHub 中提及
Soikonomou/bert_new_new
pytorch
GitHub 中提及
yi-han/BERT_Relation_Extraction
pytorch
GitHub 中提及
hieudepchai/BERT_IE
pytorch
GitHub 中提及
dfki-nlp/mtb-bert-em
pytorch
GitHub 中提及
Soikonomou/bert_new
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| relation-classification-on-tacred-1 | MTB Baldini Soares et al. (2019) | F1: 71.5 |
| relation-extraction-on-semeval-2010-task-8 | BERTEM+MTB | F1: 89.5 |
| relation-extraction-on-tacred | BERTEM+MTB | F1: 71.5 F1 (1% Few-Shot): 43.4 F1 (10% Few-Shot): 64.8 |