3 个月前

纯Transformer在图学习中具有强大的能力

纯Transformer在图学习中具有强大的能力

摘要

我们证明,无需引入图结构特异性修改,标准Transformer在理论和实践上均能在图学习任务中取得令人瞩目的成果。给定一个图,我们仅将所有节点和边视为独立的标记(tokens),为其添加标记嵌入(token embeddings),并输入到Transformer模型中。在选择合适的标记嵌入的前提下,我们证明该方法在理论上至少具有与由等变线性层构成的不变性图网络(2-IGN)相当的表达能力,而2-IGN本身已比所有消息传递型图神经网络(GNN)更具表达能力。在大规模图数据集PCQM4Mv2上进行训练时,我们提出的Tokenized Graph Transformer(TokenGT)方法显著优于现有的GNN基线模型,并在性能上与具备复杂图结构归纳偏置的Transformer变体相媲美。相关代码实现已开源,地址为:https://github.com/jw9730/tokengt。

代码仓库

luis-mueller/wl-transformers
pytorch
GitHub 中提及
jw9730/tokengt
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-ddTokenGT
Accuracy: 73.950±3.361
graph-classification-on-imdb-bTokenGT
Accuracy: 80.250±3.304
graph-classification-on-nci1TokenGT
Accuracy: 76.740±2.054
graph-classification-on-nci109TokenGT
Accuracy: 72.077±1.883
graph-regression-on-esr2TokenGT
R2: 0.641±0.000
RMSE: 0.529±0.641
graph-regression-on-f2TokenGT
R2: 0.872±0.000
RMSE: 0.363±0.872
graph-regression-on-kitTokenGT
R2: 0.800±0.000
RMSE: 0.486±0.800
graph-regression-on-lipophilicityTokenGT
R2: 0.545±0.024
RMSE: 0.852±0.023
graph-regression-on-parp1TokenGT
R2: 0.907±0.000
RMSE: 0.383±0.907
graph-regression-on-pcqm4mv2-lscTokenGT
Test MAE: 0.0919
Validation MAE: 0.0910
graph-regression-on-peptides-structTokenGT
MAE: 0.2489±0.0013
graph-regression-on-pgrTokenGT
R2: 0.684±0.000
RMSE: 0.543±0.684
graph-regression-on-zinc-fullTokenGT
Test MAE: 0.047±0.010
molecular-property-prediction-on-esolTokenGT
R2: 0.892±0.036
RMSE: 0.667±0.103
molecular-property-prediction-on-freesolvTokenGT
R2: 0.930±0.018
RMSE: 1.038±0.125

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
纯Transformer在图学习中具有强大的能力 | 论文 | HyperAI超神经