
摘要
我们证明,无需引入图结构特异性修改,标准Transformer在理论和实践上均能在图学习任务中取得令人瞩目的成果。给定一个图,我们仅将所有节点和边视为独立的标记(tokens),为其添加标记嵌入(token embeddings),并输入到Transformer模型中。在选择合适的标记嵌入的前提下,我们证明该方法在理论上至少具有与由等变线性层构成的不变性图网络(2-IGN)相当的表达能力,而2-IGN本身已比所有消息传递型图神经网络(GNN)更具表达能力。在大规模图数据集PCQM4Mv2上进行训练时,我们提出的Tokenized Graph Transformer(TokenGT)方法显著优于现有的GNN基线模型,并在性能上与具备复杂图结构归纳偏置的Transformer变体相媲美。相关代码实现已开源,地址为:https://github.com/jw9730/tokengt。
代码仓库
luis-mueller/wl-transformers
pytorch
GitHub 中提及
jw9730/tokengt
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| graph-classification-on-dd | TokenGT | Accuracy: 73.950±3.361 |
| graph-classification-on-imdb-b | TokenGT | Accuracy: 80.250±3.304 |
| graph-classification-on-nci1 | TokenGT | Accuracy: 76.740±2.054 |
| graph-classification-on-nci109 | TokenGT | Accuracy: 72.077±1.883 |
| graph-regression-on-esr2 | TokenGT | R2: 0.641±0.000 RMSE: 0.529±0.641 |
| graph-regression-on-f2 | TokenGT | R2: 0.872±0.000 RMSE: 0.363±0.872 |
| graph-regression-on-kit | TokenGT | R2: 0.800±0.000 RMSE: 0.486±0.800 |
| graph-regression-on-lipophilicity | TokenGT | R2: 0.545±0.024 RMSE: 0.852±0.023 |
| graph-regression-on-parp1 | TokenGT | R2: 0.907±0.000 RMSE: 0.383±0.907 |
| graph-regression-on-pcqm4mv2-lsc | TokenGT | Test MAE: 0.0919 Validation MAE: 0.0910 |
| graph-regression-on-peptides-struct | TokenGT | MAE: 0.2489±0.0013 |
| graph-regression-on-pgr | TokenGT | R2: 0.684±0.000 RMSE: 0.543±0.684 |
| graph-regression-on-zinc-full | TokenGT | Test MAE: 0.047±0.010 |
| molecular-property-prediction-on-esol | TokenGT | R2: 0.892±0.036 RMSE: 0.667±0.103 |
| molecular-property-prediction-on-freesolv | TokenGT | R2: 0.930±0.018 RMSE: 1.038±0.125 |