4 个月前

适应神经链接预测器以实现数据高效的复杂查询回答

适应神经链接预测器以实现数据高效的复杂查询回答

摘要

在不完整的知识图谱上回答复杂查询是一项具有挑战性的任务,其中模型需要在知识缺失的情况下回答复杂的逻辑查询。先前的研究提出了通过设计端到端训练的架构来解决这一问题,这些架构虽然能够完成复杂的查询回答任务,但其推理过程难以解释且需要大量数据和资源进行训练。另一些研究则提出重新使用简单的神经链接预测器来回答复杂查询,这种方法不仅将所需训练数据量减少了几个数量级,还提供了可解释的答案。然而,在这些方法中使用的神经链接预测器并未明确针对复杂查询回答任务进行优化,这意味着其评分未经过校准以协同工作。我们提出通过CQD$^{\mathcal{A}}$(Complex Query Decomposition with Adaptation)来解决这些问题,这是一种参数高效的评分适应模型,旨在重新校准神经链接预测器的评分以适应复杂查询回答任务。在神经链接预测器保持冻结的状态下,适应组件仅增加模型参数的0.03%,并在此下游复杂查询回答任务上进行训练。此外,校准组件使我们能够支持包含原子否定的查询推理,这是之前使用链接预测器无法实现的。在我们的实验中,CQD$^{\mathcal{A}}$产生的结果显著优于当前最先进的方法,在所有数据集和查询类型上的平均Mean Reciprocal Rank(MRR)值从34.4提高到35.1,同时仅使用了可用训练查询类型的30%或更少。我们进一步展示了CQD$^{\mathcal{A}}$的数据效率,在仅使用1%的训练复杂查询的情况下仍能取得具有竞争力的结果,并且在域外评估中表现出稳健性。

基准测试

基准方法指标
complex-query-answering-on-fb15kCQDA
MRR 1p: 0.892
MRR 2i: 0.761
MRR 2p: 0.645
MRR 2u: 0.684
MRR 3i: 0.794
MRR 3p: 0.579
MRR ip: 0.706
MRR pi: 0.701
MRR up: 0.579
complex-query-answering-on-fb15k-237CQDA
MRR 1p: 0.467
MRR 2i: 0.345
MRR 2p: 0.136
MRR 2u: 0.176
MRR 3i: 0.483
MRR 3p: 0.114
MRR ip: 0.209
MRR pi: 0.274
MRR up: 0.114
complex-query-answering-on-nell-995CQDA
MRR 1p: 0.604
MRR 2i: 0.434
MRR 2p: 0.229
MRR 2u: 0.200
MRR 3i: 0.526
MRR 3p: 0.167
MRR ip: 0.264
MRR pi: 0.321
MRR up: 0.170

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
适应神经链接预测器以实现数据高效的复杂查询回答 | 论文 | HyperAI超神经