4 个月前

多任务图自编码器

多任务图自编码器

摘要

我们研究了图表示学习中的两个基本任务:链接预测和节点分类。本文提出了一种新的自编码器架构,该架构能够学习局部图结构和可用节点特征的联合表示,以实现无监督链接预测和半监督节点分类的多任务同时学习。我们的模型虽然简单,但效果显著且具有广泛的适用性,并且能够在单个阶段高效地进行端到端训练,而以往相关的深度图嵌入方法则需要多个难以优化的训练步骤。我们在五个基准关系图数据集上对模型进行了实证评估,并展示了相对于三种强大的图表示学习基线方法的显著改进。参考代码和数据可在 https://github.com/vuptran/graph-representation-learning 获取。

代码仓库

基准测试

基准方法指标
link-prediction-on-citeseerMTGAE
Accuracy: 94.90%
link-prediction-on-coraMTGAE
Accuracy: 94.60%
link-prediction-on-pubmedMTGAE
Accuracy: 94.40%
node-classification-on-citeseerMTGAE
Accuracy: 71.80%
Validation: YES
node-classification-on-coraMTGAE
Accuracy: 79.00%
Validation: YES
node-classification-on-pubmedMTGAE
Accuracy: 80.40%
Training Split: 20 per node
Validation: YES

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多任务图自编码器 | 论文 | HyperAI超神经