3 个月前

GraphMAE:自监督掩码图自编码器

GraphMAE:自监督掩码图自编码器

摘要

近年来,自监督学习(Self-supervised Learning, SSL)得到了广泛研究。尤其在自然语言处理及其他人工智能领域,生成式自监督学习取得了显著进展,例如BERT和GPT等模型的广泛应用。然而,在图神经网络的自监督学习中,对比学习(contrastive learning)仍占据主导地位,其依赖复杂的结构数据增强策略和繁琐的训练机制。相比之下,生成式自监督学习在图数据上的进展,尤其是图自编码器(Graph Autoencoders, GAEs)的发展,尚未达到其在其他领域所展现出的潜力。本文系统地识别并深入分析了制约GAEs发展的关键问题,包括其重构目标设计、训练鲁棒性以及误差度量方式等方面的不足。为此,我们提出了一种新型的掩码图自编码器——GraphMAE,旨在有效缓解上述问题,推动生成式自监督图预训练的发展。与传统方法侧重于重构图结构不同,GraphMAE转而聚焦于节点特征的重构,并引入掩码策略与缩放余弦误差(scaled cosine error),显著提升了模型训练的稳定性与有效性。我们在21个公开数据集上针对三类不同的图学习任务进行了广泛实验。结果表明,GraphMAE——一种设计精巧但结构简洁的图自编码器——在性能上 consistently 超越了现有的对比学习与生成式自监督学习的最先进方法。本研究不仅深化了对图自编码器机制的理解,也充分展示了生成式自监督预训练在图数据上的巨大潜力。

代码仓库

wehos/cellt
pytorch
GitHub 中提及
thudm/graphmae2
pytorch
GitHub 中提及
thudm/graphmae
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-collabSelf-supervised GraphMAE
Accuracy: 80.32%
node-classification-on-cora-fixed-20-node-perSelf-supervised GraphMAE
Accuracy: 84.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
GraphMAE:自监督掩码图自编码器 | 论文 | HyperAI超神经