3 个月前

通过图拓扑诱导的最优传输微调图神经网络

通过图拓扑诱导的最优传输微调图神经网络

摘要

近年来,预训练-微调范式因其在缓解现实应用场景中标签稀缺问题方面的强大能力,受到图学习领域广泛关注。现有研究多借鉴图像或文本数据中的已有技术,如权重约束、表示约束等,试图将预训练阶段获得的不变性知识迁移至微调阶段。然而,这些方法未能有效保留图结构特性以及图神经网络(GNN)模型所固有的不变性。针对这一问题,本文提出一种基于最优传输(Optimal Transport, OT)的新型微调框架——GTOT-Tuning(Graph Topology-induced Optimal Transport fine-Tuning),专为GNN类骨干网络设计。GTOT-Tuning充分利用图数据的拓扑特性,以增强微调后网络所生成表示的不变性保持能力。为此,我们将局部图知识迁移建模为带有结构先验的最优传输问题,并构建了GTOT正则项,用于约束微调模型的行为。通过利用节点间的邻接关系,GTOT正则项实现了节点级别的最优传输过程,有效减少了冗余的传输操作,从而提升了从预训练模型到微调阶段的知识迁移效率。我们在八项不同的下游任务上,采用多种GNN骨干网络对GTOT-Tuning进行了评估,结果表明,该方法在GNN微调性能方面达到了当前最优水平。

代码仓库

youjibiying/gtot-tuning
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-baceGTOT-Tuning
ROC-AUC: 83.4
graph-classification-on-bbbpGTOT-Tuning
ROC-AUC: 70
graph-classification-on-clintoxGTOT-Tuning
ROC-AUC: 72
graph-classification-on-hivGTOT-Tuning
ROC-AUC: 78.2
graph-classification-on-muvGTOT-Tuning
ROC-AUC: 80
graph-classification-on-siderGTOT-Tuning
ROC-AUC: 63.5
graph-classification-on-tox21GTOT-Tuning
ROC-AUC: 75.6
graph-classification-on-toxcastGTOT-Tuning
ROC-AUC: 64

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过图拓扑诱导的最优传输微调图神经网络 | 论文 | HyperAI超神经