
摘要
我们研究了图表示学习中的两个基本任务:链接预测和节点分类。本文提出了一种新的自编码器架构,该架构能够学习局部图结构和可用节点特征的联合表示,以实现无监督链接预测和半监督节点分类的多任务同时学习。我们的模型虽然简单,但效果显著且具有广泛的适用性,并且能够在单个阶段高效地进行端到端训练,而以往相关的深度图嵌入方法则需要多个难以优化的训练步骤。我们在五个基准关系图数据集上对模型进行了实证评估,并展示了相对于三种强大的图表示学习基线方法的显著改进。参考代码和数据可在 https://github.com/vuptran/graph-representation-learning 获取。
代码仓库
vuptran/graph-representation-learning
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| link-prediction-on-citeseer | MTGAE | Accuracy: 94.90% |
| link-prediction-on-cora | MTGAE | Accuracy: 94.60% |
| link-prediction-on-pubmed | MTGAE | Accuracy: 94.40% |
| node-classification-on-citeseer | MTGAE | Accuracy: 71.80% Validation: YES |
| node-classification-on-cora | MTGAE | Accuracy: 79.00% Validation: YES |
| node-classification-on-pubmed | MTGAE | Accuracy: 80.40% Training Split: 20 per node Validation: YES |