4 个月前

GAP:一种图感知的语言模型框架用于知识图谱到文本的生成

GAP:一种图感知的语言模型框架用于知识图谱到文本的生成

摘要

近期知识图谱到文本生成(KG-to-text)的改进得益于一些额外的辅助预训练任务,这些任务旨在提升微调任务的性能。然而,这些任务需要大量的计算资源,而仅能带来微小的性能提升。本文展示了通过将图感知元素融合到现有的预训练语言模型中,我们能够超越当前最先进的模型,并缩小由额外预训练任务带来的差距。为此,我们提出了一种掩码结构来捕捉邻域信息,以及一种新型类型编码器,该编码器根据连接类型对图注意力权重添加偏差。在两个KG-to-text基准数据集上的实验表明,我们的模型具有竞争力,同时参数更少且无需额外的预训练任务。通过将问题构建为一个框架,我们可以互换各种提出的组件,并开始基于图中的拓扑和类型信息解释KG-to-text生成模型。

代码仓库

基准测试

基准方法指标
kg-to-text-generation-on-eventnarrativeGAP - Me,r+γ
BLEU: 35.08
BertScore: 93.38
METEOR: 27.5
ROUGE: 64.28
kg-to-text-generation-on-eventnarrativeT5
BLEU: 12.8
BertScore: 89.59
METEOR: 22.77
ROUGE: 52.06
kg-to-text-generation-on-eventnarrativeGAP - Me,re
BLEU: 34.02
METEOR: 26.93
ROUGE: 62.9
kg-to-text-generation-on-eventnarrativeJointGT
BLEU: 31.19
BertScore: 93.68
METEOR: 26.58
ROUGE: 64.91
kg-to-text-generation-on-eventnarrativeBART
BLEU: 31.38
BertScore: 93.12
METEOR: 26.68
ROUGE: 62.65
kg-to-text-generation-on-webnlg-2-0KGPT w/o pretrain
BLEU: 62.3
METEOR: 44.33
ROUGE: 73
kg-to-text-generation-on-webnlg-2-0JointGT (BART) - w/ JointGTPretrain
BLEU: 65.92
METEOR: 47.15
ROUGE: 76.1
kg-to-text-generation-on-webnlg-2-0JointGT (BART) - w/ BARTPretrain
BLEU: 64.6
METEOR: 46.77
ROUGE: 75.74
kg-to-text-generation-on-webnlg-2-0GAP - Me,re
ROUGE: 76.22
kg-to-text-generation-on-webnlg-2-0GAP - Me,r+γ
BLEU: 66.2
ROUGE: 76.36
kg-to-text-generation-on-webnlg-2-0GCN
BLEU: 60.8
METEOR: 42.76
ROUGE: 71.13

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
GAP:一种图感知的语言模型框架用于知识图谱到文本的生成 | 论文 | HyperAI超神经