
摘要
本文提出了一种用于图表示学习的新型变压器架构。我们的方法的核心在于在构建变压器块中的注意力模块时,充分考虑图中节点和边之间的信息传播。具体而言,我们提出了一种新的注意力机制,称为图传播注意力(Graph Propagation Attention, GPA)。该机制通过三种方式显式地传递节点和边之间的信息,即节点到节点、节点到边以及边到节点,这对于学习图结构数据至关重要。在此基础上,我们设计了一种有效的变压器架构,命名为图传播变压器(Graph Propagation Transformer, GPTrans),以进一步帮助学习图数据。我们在多个基准数据集上进行了一系列广泛的图学习实验,验证了GPTrans的性能。这些结果表明,我们的方法在性能上优于许多基于变压器的最先进图模型。代码将在https://github.com/czczup/GPTrans发布。
代码仓库
czczup/gptrans
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| graph-property-prediction-on-ogbg-molhiv | GPTrans-B | Ext. data: Yes Test ROC-AUC: 0.8126 ± 0.0032 |
| graph-regression-on-pcqm4m-lsc | GPTrans-L | Validation MAE: 0.1151 |
| graph-regression-on-pcqm4mv2-lsc | GPTrans-L | Test MAE: 0.0821 Validation MAE: 0.0809 |
| graph-regression-on-pcqm4mv2-lsc | GPTrans-T | Test MAE: 0.0842 Validation MAE: 0.0833 |
| graph-regression-on-zinc-500k | GPTrans-Nano | MAE: 0.077 |
| node-classification-on-cluster | GPTrans-Nano | Accuracy: 78.07 |
| node-classification-on-pattern | GPTrans-Nano | Accuracy: 86.734±0.008 |