
摘要
近期知识图谱到文本生成(KG-to-text)的改进得益于一些额外的辅助预训练任务,这些任务旨在提升微调任务的性能。然而,这些任务需要大量的计算资源,而仅能带来微小的性能提升。本文展示了通过将图感知元素融合到现有的预训练语言模型中,我们能够超越当前最先进的模型,并缩小由额外预训练任务带来的差距。为此,我们提出了一种掩码结构来捕捉邻域信息,以及一种新型类型编码器,该编码器根据连接类型对图注意力权重添加偏差。在两个KG-to-text基准数据集上的实验表明,我们的模型具有竞争力,同时参数更少且无需额外的预训练任务。通过将问题构建为一个框架,我们可以互换各种提出的组件,并开始基于图中的拓扑和类型信息解释KG-to-text生成模型。
代码仓库
acolas1/GAP_COLING2022
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| kg-to-text-generation-on-eventnarrative | GAP - Me,r+γ | BLEU: 35.08 BertScore: 93.38 METEOR: 27.5 ROUGE: 64.28 |
| kg-to-text-generation-on-eventnarrative | T5 | BLEU: 12.8 BertScore: 89.59 METEOR: 22.77 ROUGE: 52.06 |
| kg-to-text-generation-on-eventnarrative | GAP - Me,re | BLEU: 34.02 METEOR: 26.93 ROUGE: 62.9 |
| kg-to-text-generation-on-eventnarrative | JointGT | BLEU: 31.19 BertScore: 93.68 METEOR: 26.58 ROUGE: 64.91 |
| kg-to-text-generation-on-eventnarrative | BART | BLEU: 31.38 BertScore: 93.12 METEOR: 26.68 ROUGE: 62.65 |
| kg-to-text-generation-on-webnlg-2-0 | KGPT w/o pretrain | BLEU: 62.3 METEOR: 44.33 ROUGE: 73 |
| kg-to-text-generation-on-webnlg-2-0 | JointGT (BART) - w/ JointGTPretrain | BLEU: 65.92 METEOR: 47.15 ROUGE: 76.1 |
| kg-to-text-generation-on-webnlg-2-0 | JointGT (BART) - w/ BARTPretrain | BLEU: 64.6 METEOR: 46.77 ROUGE: 75.74 |
| kg-to-text-generation-on-webnlg-2-0 | GAP - Me,re | ROUGE: 76.22 |
| kg-to-text-generation-on-webnlg-2-0 | GAP - Me,r+γ | BLEU: 66.2 ROUGE: 76.36 |
| kg-to-text-generation-on-webnlg-2-0 | GCN | BLEU: 60.8 METEOR: 42.76 ROUGE: 71.13 |