4 个月前

基于相对位置建模图结构以从知识图谱生成文本

基于相对位置建模图结构以从知识图谱生成文本

摘要

我们提出了一种名为Graformer的新颖基于Transformer的编码器-解码器架构,用于图到文本生成。通过我们创新的图自注意力机制,节点的编码不仅依赖于直接邻接的节点,而是依赖于输入图中的所有节点,从而有助于检测全局模式。我们将两个节点之间的关系表示为它们之间最短路径的长度。Graformer学习在不同的注意力头中对这些节点-节点关系赋予不同的权重,从而实际上学会了输入图的不同连接视图。我们在两个流行的图到文本生成基准数据集AGENDA和WebNLG上评估了Graformer,在使用远少于其他方法的参数的情况下,它表现出强大的性能。

基准测试

基准方法指标
data-to-text-generation-on-webnlgGraformer
BLEU: 61.15
kg-to-text-generation-on-agendaGraformer
BLEU: 17.80

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于相对位置建模图结构以从知识图谱生成文本 | 论文 | HyperAI超神经