3 个月前

图到文本生成中的结构信息保持

图到文本生成中的结构信息保持

摘要

图到文本生成任务的目标是生成能够准确保留输入图结构语义的自然语言句子。然而,当前最先进模型存在一个关键缺陷:在生成输出时,可能混淆甚至丢失输入图的核心结构信息。为解决这一问题,我们提出通过引入更丰富的训练信号来引导模型更好地保留输入信息。具体而言,我们引入两种自编码损失(autoencoding losses),每种损失分别聚焦于输入图的不同方面(即不同“视角”)。这些损失通过多任务学习进行反向传播,从而更有效地校准模型。在两个图到文本生成基准数据集上的实验结果表明,所提方法在性能上显著优于当前最先进的基线模型。相关代码已公开,地址为:\url{http://github.com/Soistesimmer/AMR-multiview}。

代码仓库

基准测试

基准方法指标
data-to-text-generation-on-webnlgMultiview-G2S
BLEU: 62.89

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
图到文本生成中的结构信息保持 | 论文 | HyperAI超神经