HyperAIHyperAI

Command Palette

Search for a command to run...

DropGNN:随机丢弃提升图神经网络的表达能力

Pál András Papp Karolis Martinkus Lukas Faber Roger Wattenhofer

摘要

本文研究了一种名为Dropout图神经网络(DropGNNs)的新方法,旨在克服标准图神经网络(GNN)框架的局限性。在DropGNNs中,我们对输入图执行多次GNN运行,每次运行中以随机且独立的方式丢弃部分节点。随后,将这些运行的结果进行融合,以获得最终的输出。我们证明,DropGNNs能够区分那些无法通过消息传递机制的GNN所区分的各类图邻域结构。本文推导出确保丢弃分布可靠的运行次数的理论边界,并证明了关于DropGNNs表达能力及其局限性的若干重要性质。通过实验验证了所提出的表达能力理论结果的正确性。此外,我们还表明,DropGNNs在多个标准GNN基准测试中表现出具有竞争力的性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
DropGNN:随机丢弃提升图神经网络的表达能力 | 论文 | HyperAI超神经