
摘要
图卷积网络(GCNs)已成为学习图节点表示的重要工具。在大规模图上应用GCNs的主要挑战是其扩展性问题,即由于跨层时邻域的不可控扩展,导致计算和内存成本高昂。本文通过开发一种自适应逐层采样方法来加速GCNs的训练。通过自顶向下的方式逐层构建网络,我们在顶层的条件下对下一层进行采样,其中不同父节点共享采样的邻域,并且由于固定大小的采样,避免了过度扩展。更重要的是,所提出的采样器具有自适应性,并适用于显式方差减少,从而增强了我们方法的训练效果。此外,我们提出了一种新颖且经济的方法,通过引入跳跃连接来促进远距离节点之间的消息传递。大量的基准实验验证了我们的方法在分类准确性方面的有效性,并且该方法还具有更快的收敛速度。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| node-classification-on-citeseer-full | ASGCN | Accuracy: 79.66% |
| node-classification-on-cora | AS-GCN | Accuracy: 87.44% ± 0.0034% |
| node-classification-on-cora-full-supervised | ASGCN | Accuracy: 87.44±0.0034% |
| node-classification-on-pubmed-full-supervised | ASGCN | Accuracy: 90.6% |
| node-classification-on-reddit | ASGCN | Accuracy: 96.27% |