4 个月前

深度双向语言-知识图预训练

深度双向语言-知识图预训练

摘要

在文本上预训练语言模型(LM)已被证明有助于各种下游自然语言处理(NLP)任务。近期的研究表明,知识图谱(KG)可以补充文本数据,提供结构化的背景知识,为推理提供有用的框架。然而,这些研究未能大规模预训练以实现两种模态的深度融合,限制了获取完全联合的文本和知识图谱表示的潜力。本文提出了一种名为DRAGON(深度双向语言-知识图谱预训练)的方法,这是一种自监督方法,旨在从文本和知识图谱中大规模预训练一个深度联合的语言-知识基础模型。具体而言,我们的模型以文本片段对及其相关的知识图谱子图作为输入,并双向融合来自这两种模态的信息。我们通过统一两个自监督推理任务——掩码语言建模和知识图谱链接预测来预训练该模型。DRAGON在包括一般领域和生物医学领域的问答在内的多种下游任务上超越了现有的语言模型和语言模型+知识图谱模型,平均绝对增益达到5%。特别是在涉及长上下文或多步推理的问题以及低资源问答任务(如OBQA和RiddleSense)上的复杂推理表现尤为突出,分别提高了10%和8%。此外,DRAGON还在各种BioNLP任务上取得了新的最佳结果。我们的代码和预训练模型可在https://github.com/michiyasunaga/dragon 获取。

代码仓库

michiyasunaga/dragon
官方
pytorch
GitHub 中提及
HaochenLiu2000/QAP
pytorch
GitHub 中提及

基准测试

基准方法指标
common-sense-reasoning-on-commonsenseqaDRAGON
Accuracy: 78.2
question-answering-on-medqa-usmleDRAGON + BioLinkBERT
Accuracy: 47.5
riddle-sense-on-riddle-senseDRAGON
Accuracy (%): 71.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
深度双向语言-知识图预训练 | 论文 | HyperAI超神经