
摘要
我们提出了一种名为Graformer的新颖基于Transformer的编码器-解码器架构,用于图到文本生成。通过我们创新的图自注意力机制,节点的编码不仅依赖于直接邻接的节点,而是依赖于输入图中的所有节点,从而有助于检测全局模式。我们将两个节点之间的关系表示为它们之间最短路径的长度。Graformer学习在不同的注意力头中对这些节点-节点关系赋予不同的权重,从而实际上学会了输入图的不同连接视图。我们在两个流行的图到文本生成基准数据集AGENDA和WebNLG上评估了Graformer,在使用远少于其他方法的参数的情况下,它表现出强大的性能。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| data-to-text-generation-on-webnlg | Graformer | BLEU: 61.15 |
| kg-to-text-generation-on-agenda | Graformer | BLEU: 17.80 |