3 个月前

全局注意力机制提升图网络的泛化能力

全局注意力机制提升图网络的泛化能力

摘要

本文提出将一种低秩全局注意力(Low-Rank Global Attention, LRGA)模块引入图神经网络(Graph Neural Networks, GNNs),以提升其泛化能力。LRGA是点积注意力机制(Vaswani et al., 2017)的一种计算与内存高效的变体。为从理论上量化在GNN中引入LRGA模块所带来的泛化性能提升,本文聚焦于一类具有强表达能力的GNN家族,证明在该模型中引入LRGA可实现与一种强大图同构性检验算法——即2-Folklore Weisfeiler-Lehman(2-FWL)算法的算法对齐。具体而言,本文工作包括以下三个方面:(i)考虑近期提出的随机图神经网络(Random Graph Neural Network, RGNN)框架(Sato et al., 2020),并证明其在概率意义上具有通用性;(ii)证明在RGNN中引入LRGA后,其更新过程可通过多项式核函数实现与2-FWL算法更新步骤的对齐;(iii)在使用随机初始化的两层多层感知机(MLP)学习该核函数的特征映射时,给出了该映射的样本复杂度上界。从实际应用角度看,将LRGA模块集成到现有GNN层中,可在当前主流GNN基准测试中取得当前最优(state-of-the-art)性能。此外,我们观察到,将LRGA模块应用于多种不同的GNN架构时,通常能够显著缩小不同模型之间的性能差距。

代码仓库

chuanqichen/cs224w
pytorch
GitHub 中提及
omri1348/LRGA
pytorch
GitHub 中提及

基准测试

基准方法指标
link-property-prediction-on-ogbl-collabPLNLP+ LRGA
Ext. data: No
Number of params: 35200656
Test Hits@50: 0.6909 ± 0.0055
Validation Hits@50: 1.0000 ± 0.0000
link-property-prediction-on-ogbl-collabLRGA + GCN
Ext. data: No
Number of params: 1069489
Test Hits@50: 0.5221 ± 0.0072
Validation Hits@50: 0.6088 ± 0.0059
link-property-prediction-on-ogbl-ddiLRGA + GCN
Ext. data: No
Number of params: 1576081
Test Hits@20: 0.6230 ± 0.0912
Validation Hits@20: 0.6675 ± 0.0058

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
全局注意力机制提升图网络的泛化能力 | 论文 | HyperAI超神经