4 个月前

探究预训练语言模型在图到文本生成中的应用

探究预训练语言模型在图到文本生成中的应用

摘要

图到文本生成的目标是从基于图的数据中生成流畅的文本。在本文中,我们研究了两种最近提出的预训练语言模型(PLM),并分析了不同的任务适应性预训练策略对这些模型在图到文本生成任务中的影响。我们进行了跨三个图领域的研究:意义表示、维基百科知识图谱(KG)和科学知识图谱(KG)。结果显示,BART和T5这两种预训练语言模型达到了新的最先进水平,并且任务适应性预训练策略进一步提高了它们的性能。具体而言,我们在LDC2017T10数据集上报告了49.72的新最先进BLEU分数,在WebNLG数据集上报告了59.70的新最先进BLEU分数,在AGENDA数据集上报告了25.66的新最先进BLEU分数——相对改进率分别为31.8%、4.5%和42.4%。通过广泛的分析,我们确定了预训练语言模型在图到文本任务中取得成功的一些可能原因。我们发现证据表明,这些模型对真实事实的知识有助于它们即使在输入图表示简化为节点和边标签的简单集合时也能表现良好。

代码仓库

UKPLab/plms-graph2text
官方
pytorch
GitHub 中提及
ukplab/m-amr2text
jax
GitHub 中提及
bjascob/amrlib
GitHub 中提及

基准测试

基准方法指标
data-to-text-generation-on-webnlgT5-small
BLEU: 65.05
data-to-text-generation-on-webnlg-full-1T5-large
BLEU: 59.70
kg-to-text-generation-on-agendaBART-large
BLEU: 23.65
kg-to-text-generation-on-agendaBART-large+ STA
BLEU: 25.66
kg-to-text-generation-on-webnlg-allBART_large
BLEU: 54.72
METEOR: 42.23
chrF++: 72.29
kg-to-text-generation-on-webnlg-allT5_large
BLEU: 59.70
METEOR: 44.18
chrF++: 75.40
kg-to-text-generation-on-webnlg-seenBART_large
BLEU: 63.45
METEOR: 45.49
chrF++: 77.57
kg-to-text-generation-on-webnlg-seenT5_large
BLEU: 64.71
METEOR: 45.85
chrF++: 78.29
kg-to-text-generation-on-webnlg-unseenT5_large
BLEU: 53.67
METEOR: 42.26
chrF++: 72.25
kg-to-text-generation-on-webnlg-unseenBART_large
BLEU: 43.97
METEOR: 38.61
chrF++: 66.53

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
探究预训练语言模型在图到文本生成中的应用 | 论文 | HyperAI超神经