
摘要
图神经网络(Graph Neural Networks, GNNs)在图深度学习领域受到了广泛关注。然而,近期的实证与理论研究表明,深层GNNs普遍存在过拟合和过度平滑问题。现有的常规解决方案要么无法缓解深层GNNs带来的显著运行时间开销,要么限制图卷积操作局限于同一特征空间内。为此,我们提出了自适应图扩散网络(Adaptive Graph Diffusion Networks, AGDNs),该方法在不同特征空间中实现多层广义图扩散,兼具适中的计算复杂度与运行效率。传统图扩散方法通常将转移矩阵的大规模、稠密幂次与预设权重系数进行组合。相比之下,AGDNs采用更小规模的多跳节点表示,并结合可学习且广义化的权重系数进行融合。为此,我们提出了两种可扩展的权重机制,以有效捕捉多跳信息:跳数注意力机制(Hop-wise Attention, HA)与跳数卷积机制(Hop-wise Convolution, HC)。我们在多样且具有挑战性的开放图基准(Open Graph Benchmark, OGB)数据集上,针对半监督节点分类与链接预测任务对AGDNs进行了全面评估。截至2022年8月26日投稿时,AGDNs在ogbn-arxiv、ogbn-proteins和ogbl-ddi数据集上均取得第一名的性能表现,在ogbl-citation2数据集上位列前三名。在同等Tesla V100 GPU硬件条件下,AGDNs在ogbn-proteins数据集上的计算复杂度比可逆图神经网络(Reversible GNNs, RevGNNs)低13%,训练时间仅为RevGNNs的1%。此外,在ogbl-citation2数据集上,AGDNs的性能可与SEAL方法相媲美,同时训练时间仅为SEAL的36%,推理时间仅为SEAL的0.2%。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-property-prediction-on-ogbl-citation2 | AGDN w/GraphSAINT | Ext. data: No Number of params: 306716 Test MRR: 0.8549 ± 0.0029 Validation MRR: 0.8556 ± 0.0033 |
| link-property-prediction-on-ogbl-ddi | AGDN (AUC loss) | Ext. data: No Number of params: 3506691 Test Hits@20: 0.9538 ± 0.0094 Validation Hits@20: 0.8943 ± 0.0281 |
| link-property-prediction-on-ogbl-ppa | AGDN | Ext. data: No Number of params: 36904259 Test Hits@100: 0.4123 ± 0.0159 Validation Hits@100: 0.4332 ± 0.0092 |