3 个月前

基于分层距离结构编码增强图Transformer

基于分层距离结构编码增强图Transformer

摘要

图注意力机制需要强大的归纳偏置来生成有意义的注意力分数。然而,现有方法在捕捉图结构中常见的长程依赖、层次化结构或社区结构方面往往表现不足,而这些结构广泛存在于分子图、社交网络和引文网络等各类图数据中。本文提出一种层次化距离结构编码(Hierarchical Distance Structural Encoding, HDSE)方法,用于建模图中节点间的距离关系,重点体现其多层次、分层的特性。我们设计了一种新颖的框架,可无缝将HDSE集成至现有图Transformer的注意力机制中,支持与其它位置编码方法并行使用。为使基于HDSE的图Transformer能够有效应用于大规模图数据,我们进一步提出了高层级HDSE,该方法能有效引导线性Transformer模型关注图的层次结构。理论上,我们证明了HDSE在表达能力与泛化性能方面优于传统的最短路径距离。实验结果表明,采用HDSE的图Transformer在7个图级别任务(包括图分类与回归)中表现优异,并在11个大规模图数据集上的节点分类任务中均取得领先性能,其中部分图数据规模高达十亿个节点。

代码仓库

luoyk1999/hdse
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
graph-classification-on-cifar10-100kGraphGPS + HDSE
Accuracy (%): 76.180±0.277
graph-classification-on-peptides-funcGraphGPS + HDSE
AP: 0.7156±0.0058
graph-regression-on-zinc-500kGraphGPS + HDSE
MAE: 0.062

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于分层距离结构编码增强图Transformer | 论文 | HyperAI超神经