4 个月前

基于硬注意力和通道注意力网络的图表示学习

基于硬注意力和通道注意力网络的图表示学习

摘要

注意力机制已在多个领域得到广泛应用,包括计算机视觉、自然语言处理和网络嵌入学习。图数据上的注意力机制使得在聚合邻近节点信息时可以学习到权重。然而,图注意力算子(Graph Attention Operators, GAOs)消耗了过多的计算资源,限制了其在大规模图上的应用。此外,GAOs 属于软注意力机制,而研究表明硬注意力机制能带来更好的性能。在这项工作中,我们提出了新颖的硬图注意力算子(Hard Graph Attention Operator, hGAO)和通道级图注意力算子(Channel-wise Graph Attention Operator, cGAO)。hGAO 通过仅关注重要节点来实现硬注意力机制。与 GAO 相比,hGAO 通过仅关注重要节点提高了性能并节省了计算成本。为了进一步减少对计算资源的需求,我们提出了 cGAO,该算子沿通道执行注意力操作。cGAO 避免了对邻接矩阵的依赖,从而大幅降低了计算资源需求。实验结果表明,我们提出的带有新算子的深度模型在性能上表现出持续的提升。对比结果显示,在节点和图嵌入任务中,hGAO 的性能显著优于 GAO。效率对比也显示,我们的 cGAO 在计算资源方面实现了显著的节省,使其适用于大规模图。

基准测试

基准方法指标
graph-classification-on-collabhGANet
Accuracy: 77.48%
graph-classification-on-ddhGANet
Accuracy: 81.71%
graph-classification-on-imdb-mhGANet
Accuracy: 49.06%
graph-classification-on-mutaghGANet
Accuracy: 90.00%
graph-classification-on-proteinsGANet
Accuracy: 77.92%
graph-classification-on-proteinscGANet
Accuracy: 78.23%
graph-classification-on-proteinshGANet
Accuracy: 78.65%
graph-classification-on-ptccGANet
Accuracy: 63.53%
graph-classification-on-ptchGANet
Accuracy: 65.02%
graph-classification-on-ptcGANet
Accuracy: 62.94%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于硬注意力和通道注意力网络的图表示学习 | 论文 | HyperAI超神经