3 个月前

预训练语言模型中用于AMR到文本生成的结构化适配器

预训练语言模型中用于AMR到文本生成的结构化适配器

摘要

预训练语言模型(Pretrained Language Models, PLM)近年来在图到文本生成任务中取得了显著进展。该类方法通常将输入的图结构线性化为序列,并输入到PLM中以获取其表示。然而,如何高效地将图结构信息编码进PLM仍面临挑战,因为这些模型是在自然语言数据上进行预训练的,若直接建模结构化数据,可能导致对原始分布知识的灾难性遗忘。本文提出了一种名为StructAdapt的适配器方法,用于将图结构信息有效融入PLM。与以往方法不同,StructAdapt基于图的连通性,能够有效建模节点之间的交互关系,同时仅需训练与图结构感知相关的适配器参数。该方法在保留图拓扑结构的同时,融入了任务特定的知识。实验结果表明,通过StructAdapt显式地将图结构编码进PLM,显著提升了生成性能,在两个AMR到文本的数据集上均超越了当前最优方法,且仅需训练PLM参数总量的5.1%。

代码仓库

ukplab/structadapt
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
data-to-text-generation-on-amr3-0StructAdapt
Bleu: 48.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
预训练语言模型中用于AMR到文本生成的结构化适配器 | 论文 | HyperAI超神经