
摘要
图表示学习近年来已被广泛应用于从计算机图形学、化学到高能物理以及社交媒体等众多领域。图神经网络的流行引发了学术界和工业界对开发可扩展至超大规模图(如Facebook或Twitter社交网络)方法的浓厚兴趣。在大多数现有方法中,为降低计算成本,通常采用采样策略,在训练过程中仅保留节点邻居或子图的子集。本文提出了一种新型、高效且可扩展的图深度学习架构,该架构通过使用不同尺寸的图卷积滤波器,避免了图采样的需求。这些滤波器可通过高效的预计算处理,从而实现极快的训练与推理速度。此外,该架构支持灵活使用多种局部图算子(例如由图 motifs 构造的邻接矩阵或个性化PageRank扩散矩阵),以更好地适应具体任务需求。我们在多个公开基准数据集上进行了广泛的实验评估,结果表明,该方法在性能上可与现有最先进架构相媲美,同时训练与推理时间仅为后者的极小部分。尤其值得一提的是,我们在目前规模最大的公开图数据集 ogbn-papers100M 上取得了当前最优(state-of-the-art)的实验结果,该数据集包含超过1.1亿个节点和15亿条边。
代码仓库
twitter-research/sign
官方
pytorch
GitHub 中提及
basiralab/falcon
pytorch
GitHub 中提及
facebookresearch/NARS
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| node-classification-on-amz-comp | SIGN | Accuracy: 85.93 ± 1.21 |
| node-classification-on-amz-photo | SIGN | Accuracy: 91.72 ± 1.20 |
| node-classification-on-coauthor-cs | SIGN | Accuracy: 91.98 ± 0.50 |
| node-classification-on-ppi | SIGN | F1: 96.50 |
| node-classification-on-reddit | SIGN | Accuracy: 96.60% |