4 个月前

填补空白:用于关系学习的分布相似性

填补空白:用于关系学习的分布相似性

摘要

通用关系抽取器,能够建模任意关系,是信息抽取领域的一个核心目标。研究人员已经尝试构建能够通过其表面形式表示关系的通用抽取器,或者将表面形式与现有知识图谱中的关系联合嵌入。然而,这两种方法在泛化能力上都存在局限性。本文基于对哈里斯分布假设在关系上的扩展以及最近在学习文本表示(特别是BERT)方面的进展,仅从实体链接文本中构建了任务无关的关系表示。我们证明,这些表示在示例基础关系抽取(FewRel)任务上显著优于先前的工作,即使没有使用该任务的任何训练数据。此外,我们还证明,使用我们的任务无关表示初始化的模型,在监督关系抽取数据集上微调后,在SemEval 2010 Task 8、KBP37和TACRED任务上的表现也显著优于之前的方法。

代码仓库

jpablou/Matching-The-Blanks-Ths
pytorch
GitHub 中提及
diffbot/knowledge-net
tf
GitHub 中提及
cypressd1999/FYP_2021
pytorch
GitHub 中提及
Soikonomou/albert_final_infer8
pytorch
GitHub 中提及
plkmo/BERT-Relation-Extraction
pytorch
GitHub 中提及
Soikonomou/albert_final_infer12
pytorch
GitHub 中提及
Soikonomou/albert_final
pytorch
GitHub 中提及
Soikonomou/bert_new_new
pytorch
GitHub 中提及
yi-han/BERT_Relation_Extraction
pytorch
GitHub 中提及
hieudepchai/BERT_IE
pytorch
GitHub 中提及
dfki-nlp/mtb-bert-em
pytorch
GitHub 中提及
Soikonomou/bert_new
pytorch
GitHub 中提及

基准测试

基准方法指标
relation-classification-on-tacred-1MTB Baldini Soares et al. (2019)
F1: 71.5
relation-extraction-on-semeval-2010-task-8BERTEM+MTB
F1: 89.5
relation-extraction-on-tacredBERTEM+MTB
F1: 71.5
F1 (1% Few-Shot): 43.4
F1 (10% Few-Shot): 64.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
填补空白:用于关系学习的分布相似性 | 论文 | HyperAI超神经