4 个月前

分阶段微调用于图到文本生成

分阶段微调用于图到文本生成

摘要

图到文本生成技术已经从预训练语言模型(PLMs)中受益,实现了比结构化图编码器更好的性能。然而,这些模型未能充分利用输入图的结构信息。在本文中,我们提出了一种带有两阶段微调机制的结构化图到文本模型,旨在进一步提升预训练语言模型的性能。该机制首先在维基百科上对模型进行微调,然后再适应于图到文本生成任务。除了使用传统的词元和位置嵌入来编码知识图谱(KG),我们还提出了一种新颖的树级嵌入方法,以捕捉输入图中的互依赖结构。这一新方法显著提高了英语WebNLG 2017数据集上所有文本生成指标的性能。

代码仓库

EagleW/Stage-wise-Fine-tuning
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
data-to-text-generation-on-webnlgT5-large + Wiki + Position
BLEU: 66.07
data-to-text-generation-on-webnlg-full-1T5-large + Wiki + Position
BLEU: 60.56

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
分阶段微调用于图到文本生成 | 论文 | HyperAI超神经