4 个月前

全局自注意力机制作为图卷积的替代方法

全局自注意力机制作为图卷积的替代方法

摘要

我们提出了一种扩展的变压器神经网络架构,用于通用图学习,通过添加一个专门用于传递成对结构信息的路径,称为边通道。该框架被称为增强边图变压器(Edge-augmented Graph Transformer, EGT),可以直接接受、处理并输出任意形式的结构信息,这对于在图结构数据上进行有效学习至关重要。我们的模型仅使用全局自注意力机制作为聚合方法,而不是静态局部卷积聚合。这使得节点之间可以进行无约束的长距离动态交互。此外,边通道允许结构信息逐层演化,并且可以直接从这些通道的输出嵌入中执行边/链接预测任务。我们在多个基准数据集上的广泛图学习实验中验证了EGT的性能,在这些实验中它优于卷积/消息传递图神经网络。EGT在包含380万个分子图的OGB-LSC PCQM4Mv2数据集上的量子化学回归任务中达到了新的最先进水平。我们的研究结果表明,基于全局自注意力机制的聚合可以作为灵活、适应性强且有效的图卷积替代方案,用于通用图学习。因此,卷积局部邻域聚合并不是一个必要的归纳偏置。

代码仓库

shamim-hussain/egt_triangular
官方
pytorch
GitHub 中提及
shamim-hussain/egt_pytorch
官方
pytorch
GitHub 中提及
shamim-hussain/egt
官方
tf
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-cifar10-100kEGT
Accuracy (%): 68.702
graph-classification-on-mnistEGT
Accuracy: 98.173
graph-property-prediction-on-ogbg-molhivEGT
Test ROC-AUC: 0.806 ± 0.0065
graph-property-prediction-on-ogbg-molpcbaEGT
Test AP: 0.2961 ± 0.0024
graph-regression-on-pcqm4m-lscEGT
Validation MAE: 0.1224
graph-regression-on-pcqm4mv2-lscEGT
Test MAE: 0.0862
Validation MAE: 0.0857
graph-regression-on-pcqm4mv2-lscEGT + Triangular Attention
Test MAE: 0.0683
Validation MAE: 0.0671
graph-regression-on-zinc-100kEGT
MAE: 0.143
graph-regression-on-zinc-500kEGT
MAE: 0.108
link-prediction-on-tsp-hcp-benchmark-setEGT
F1: 0.853
node-classification-on-clusterEGT
Accuracy: 79.232
node-classification-on-patternEGT
Accuracy: 86.821
node-classification-on-pattern-100kEGT
Accuracy (%): 86.816

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
全局自注意力机制作为图卷积的替代方法 | 论文 | HyperAI超神经