
摘要
神经网络能否在无需特征工程的情况下学习比较图?在本文中,我们展示了在没有领域知识和监督(即特征工程或标记图)的情况下,可以学习到表示图相似性的方法。我们提出了深度散度图核(Deep Divergence Graph Kernels),这是一种无监督的方法,用于学习图的表示,编码了一种放松的图同构概念。我们的方法由三个部分组成。首先,我们为每个锚点图学习一个编码器以捕捉其结构。其次,对于每对图,我们训练一个跨图注意力网络,该网络利用一个锚点图的节点表示来重构另一个图。这种方法被称为同构注意力,能够捕捉一个图的表示如何编码另一个图的能力。我们使用增强注意力的编码器预测来定义每对图之间的散度得分。最后,我们使用这些成对的散度得分构建所有图的嵌入空间。与以往的工作不同,许多工作依赖于1)监督;2)特定领域的知识(例如依赖于Weisfeiler-Lehman核);3)已知的节点对齐。而我们的无监督方法联合学习了节点表示、图表示以及基于注意力机制的图间对齐。实验结果表明,深度散度图核可以学习到无监督的图间对齐,并且所学到的表示在多个具有挑战性的图分类任务中作为特征时能够取得有竞争力的结果。此外,我们还展示了所学的注意力机制如何提供对跨图形子结构对齐的洞察。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| graph-classification-on-dd | DDGK | Accuracy: 83.14% |
| graph-classification-on-mutag | DDGK | Accuracy: 91.58% |
| graph-classification-on-nci1 | DDGK | Accuracy: 68.1% |
| graph-classification-on-ptc | DDGK | Accuracy: 63.14% |