
摘要
超图的图表示学习可用于提取高阶交互关系中的模式,而这类模式在许多现实世界问题中至关重要。然而,现有的超图学习方法难以适应不同类型的超图,且通常不具备针对多种学习任务的通用性。事实上,能够预测不同大小异构超边的模型尚未出现。本文提出一种基于自注意力机制的新型图神经网络——Hyper-SAGNN,该模型可适用于同质与异质超图,并能处理变尺寸的超边。我们在多个数据集上进行了广泛评估,包括四个基准网络数据集以及两个基因组学中的单细胞Hi-C数据集。实验结果表明,Hyper-SAGNN在传统任务上显著优于现有最先进方法,同时在一项新任务——“外来者识别”(outsider identification)中也表现出卓越性能。Hyper-SAGNN将为图表示学习提供有力工具,有助于揭示各类应用场景中复杂的高阶交互关系。
代码仓库
ma-compbio/Hyper-SAGNN
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-gps | Hyper-SAGNN-W | AUC: 0.922 AUPR: 0.722 |
| link-prediction-on-gps | Hyper-SAGNN-E | AUC: 0.9520000000000001 AUPR: 0.7979999999999999 |
| link-prediction-on-movielens-1m | Hyper-SAGNN-E | AUPR: 0.7929999999999999 |
| link-prediction-on-movielens-1m | Hyper-SAGNN-W | AUC: 0.93 AUPR: 0.81 |
| link-prediction-on-wordnet | Hyper-SAGNN-W | AUC: 0.88 AUPR: 0.706 |
| link-prediction-on-wordnet | Hyper-SAGNN-E | AUC: 0.89 AUPR: 0.705 |