
摘要
图表示学习如今已成为分析图结构数据的基础性技术。受近期对比学习方法成功的启发,本文提出一种新颖的无监督图表示学习框架,该框架在节点层面引入对比目标。具体而言,通过图结构扰动生成两种图视图,并通过最大化两个视图中节点表示的一致性来学习节点表示。为在结构和属性两个层面为对比目标提供多样化的节点上下文,我们提出一种混合式图视图生成策略。此外,我们从互信息和经典三元组损失(triplet loss)两个角度,为该方法的设计动机提供了理论支持。我们在多种真实世界数据集上,针对归纳式(inductive)和直推式(transductive)学习任务进行了充分的实验验证。实验结果表明,尽管方法结构简洁,但所提方法在各项任务中均显著优于现有最先进方法。尤为重要的是,在直推式任务中,该无监督方法甚至超越了其有监督的基线模型,充分展示了其在实际应用中的巨大潜力。
代码仓库
CRIPAC-DIG/GRACE
官方
pytorch
GitHub 中提及
ycremar/DIG-SSL
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| node-classification-on-citeseer | GRACE | Accuracy: 72.1 ± 0.5 |
| node-classification-on-cora | GRACE | Accuracy: 83.3% ± 0.4% |
| node-classification-on-dblp | GRACE | Accuracy: 84.2 ± 0.1 |
| node-classification-on-ppi | GRACE | F1: 66.2 Micro-F1: 66.2 |
| node-classification-on-pubmed | GRACE | Accuracy: 86.7 ± 0.1 |
| node-classification-on-reddit | GRACE | Micro-F1: 94.2 ± 0.0 |