4 个月前

ERNIE:增强型语言表示与信息实体

ERNIE:增强型语言表示与信息实体

摘要

神经语言表示模型(如BERT)在大规模语料库上预训练后,能够很好地从纯文本中捕捉丰富的语义模式,并通过微调持续提升各种自然语言处理(NLP)任务的性能。然而,现有的预训练语言模型很少考虑融入知识图谱(Knowledge Graphs, KGs),而知识图谱可以提供丰富的结构化知识事实,有助于更好地理解语言。我们认为,知识图谱中的信息实体可以利用外部知识增强语言表示。在本文中,我们同时利用大规模文本语料库和知识图谱来训练一个增强型语言表示模型(Enhanced Representation through Knowledge Integration, ERNIE),该模型能够同时充分利用词汇、句法和知识信息。实验结果表明,ERNIE在各种以知识为驱动的任务上取得了显著的改进,并且在其他常见的NLP任务上与最先进的模型BERT表现相当。本文的源代码可从https://github.com/thunlp/ERNIE 获取。

代码仓库

thunlp/ERNIE
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
entity-linking-on-figerERNIE
Accuracy: 57.19
Macro F1: 76.51
Micro F1: 73.39
entity-typing-on-open-entityERNIE
F1: 75.56
Precision: 78.42
Recall: 72.9
linguistic-acceptability-on-colaERNIE
Accuracy: 52.3%
natural-language-inference-on-multinliERNIE
Matched: 84.0
Mismatched: 83.2
natural-language-inference-on-qnliERNIE
Accuracy: 91.3%
natural-language-inference-on-rteERNIE
Accuracy: 68.8%
paraphrase-identification-on-quora-questionERNIE
F1: 71.2
relation-classification-on-tacred-1BERT
F1: 66.0
relation-classification-on-tacred-1ERNIE
F1: 68.0
relation-extraction-on-fewrelERNIE
F1: 88.32
Precision: 88.49
Recall: 88.44
relation-extraction-on-tacredERNIE
F1: 67.97
semantic-textual-similarity-on-mrpcERNIE
Accuracy: 88.2%
semantic-textual-similarity-on-sts-benchmarkERNIE
Pearson Correlation: 0.832
sentiment-analysis-on-sst-2-binaryERNIE
Accuracy: 93.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ERNIE:增强型语言表示与信息实体 | 论文 | HyperAI超神经