
摘要
高阶图神经网络(High-order Graph Neural Networks, HO-GNNs)已被提出用于在异质性(heterophilic)场景下推断一致的隐空间,此类场景中节点标签分布与图结构之间不存在相关性。然而,现有的大多数HO-GNN架构均为基于“跳数”(hop-based)的方法,即依赖于转移矩阵的幂次运算。因此,这些架构对分类损失的响应不充分,所获得的结构滤波器具有固定的支撑集(static supports)。换言之,此类网络无法学习滤波器的支撑集及其系数,仅能学习不同滤波器的组合。为解决上述问题,本文提出一种新型方法——扩散-跳跃图神经网络(Diffusion-jump GNN),该方法基于渐近扩散距离,其核心机制建立在“跳跃”操作之上。在该框架中,一个“扩散泵”(diffusion-pump)生成节点间的成对距离,这些距离的投影结果共同决定了每个结构滤波器的支撑集与系数。由于这些滤波器能够探索广泛的时间与空间尺度,以发现具有相同标签但分布分散的节点之间的潜在关联,因此被称为“跳跃”(jumps)。整个过程由分类损失进行调控,使得跳跃操作与扩散距离均能对分类错误做出响应,即具备可学习性。本文将同质化(homophiliation)——即在异质性场景下学习分段平滑的隐空间——形式化为一个狄利克雷问题(Dirichlet problem):已知标签节点作为边界条件,而“扩散泵”则确保半监督聚类结果与标准无监督聚类结果之间的偏差最小化。这一机制触发扩散距离与跳跃滤波器的联合更新,从而持续降低分类误差。该狄利克雷形式化框架具有多重优势:首先,它引出了一个全新的度量——结构异质性(structural heterophily),该度量超越了传统边异质性(edge heterophily)的范畴;其次,它为研究可学习的扩散距离、吸收随机游走(absorbing random walks)以及随机扩散过程之间的深层联系提供了理论基础。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| node-classification-on-actor | DJ-GNN | Accuracy: 36.93 ± 0.84 |
| node-classification-on-arxiv-year | DJ-GNN | Accuracy: 49.21±0.20 |
| node-classification-on-chameleon | DJ-GNN | Accuracy: 80.48±1.46 |
| node-classification-on-cornell | DJ-GNN | Accuracy: 87.03±1.62 |
| node-classification-on-penn94 | DJ-GNN | Accuracy: 84.84±0.34 |
| node-classification-on-squirrel | DJ-GNN | Accuracy: 73.48±1.59 |
| node-classification-on-texas | DJ-GNN | Accuracy: 92.43±3.15 |
| node-classification-on-wisconsin | DJ-GNN | - |