4 个月前

用于知识库补全的经典张量分解方法

用于知识库补全的经典张量分解方法

摘要

知识库补全问题可以被表述为一个三阶二元张量补全问题。从这个角度来看,经典张量分解(CP)(Hitchcock,1927)似乎是一个自然的选择;然而,目前在标准知识库补全基准测试中,CP的实现落后于其竞争对手。在这项工作中,我们试图理解CP在知识库补全中的局限性。首先,我们提出并测试了一种基于张量核$p$-范数的新正则化方法。然后,我们提出了一个问题的重新表述方法,使其对数据集中谓词及其逆谓词的任意选择具有不变性。这两种方法结合使用后,使我们能够在多个数据集上通过CP分解超越当前的最佳水平,并且使用更先进的ComplEx模型获得了更好的结果。

代码仓库

facebookresearch/kbc
官方
pytorch
GitHub 中提及
twktheainur/kbc
pytorch
GitHub 中提及

基准测试

基准方法指标
dynamic-link-prediction-on-wn18-filteredComplEx-N3 (reciprocal)
Mrr@2: 0.9
link-prediction-on-fb15k-1ComplEx-N3 (reciprocal)
Hits@10: 0.91
MRR: 0.86
link-prediction-on-wn18ComplEx-N3 (reciprocal)
Hits@10: 0.96
link-prediction-on-wn18rrComplEx-N3 (reciprocal)
Hits@10: 0.57
MRR: 0.48
link-prediction-on-yago3-10ComplEx-N3 (reciprocal)
MRR: 0.58
link-prediction-on-yago3-10ComplEx-N3 (large model, reciprocal)
Hits@10: 0.71

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于知识库补全的经典张量分解方法 | 论文 | HyperAI超神经