
摘要
人工智能领域的一个基本问题是在知识图谱(Knowledge Graph, KG)所捕获的事实基础上进行复杂的多步逻辑推理。这一问题具有挑战性,因为知识图谱可能非常庞大且不完整。近期的方法通过将知识图谱中的实体嵌入低维空间,然后利用这些嵌入来查找答案实体。然而,如何处理任意一阶逻辑(First-Order Logic, FOL)查询仍然是一个突出的难题,现有的方法仅限于支持部分FOL操作符。特别是,否定操作符尚未得到支持。现有方法的另一个局限性在于它们无法自然地建模不确定性。本文介绍了一种名为BetaE的概率嵌入框架,用于回答知识图谱上的任意FOL查询。BetaE是首个能够处理完整的一阶逻辑操作集的方法,包括合取($\wedge$)、析取($\vee$)和否定($\neg$)。BetaE的关键思想是使用具有有界支持的概率分布,具体来说是贝塔分布,并将查询/实体嵌入为分布形式,从而能够忠实地建模不确定性。逻辑运算通过在嵌入空间中对概率嵌入应用神经运算符来完成。我们在三个大型、不完整的知识图谱上展示了BetaE在回答任意FOL查询方面的性能表现。尽管更为通用,BetaE相比目前只能处理不含否定的合取查询的知识图谱推理方法,在相对性能上提升了高达25.4%。
代码仓库
snap-stanford/KGReasoning
pytorch
GitHub 中提及
pminervini/kgreasoning
pytorch
GitHub 中提及
Blidge/KGReasoning
pytorch
GitHub 中提及
francoisluus/KGReasoning
pytorch
GitHub 中提及
zhiweihu1103/qe-temp
pytorch
GitHub 中提及
hkust-knowcomp/efo-1-qa-benchmark
pytorch
GitHub 中提及
Jacfger/simple-stuffs
pytorch
GitHub 中提及
LHY-24/KG-Compilation
pytorch
GitHub 中提及
uclnlp/cqd
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| complex-query-answering-on-fb15k | BetaE | MRR 1p: 0.651 MRR 2i: 0.558 MRR 2p: 0.257 MRR 2u: 0.401 MRR 3i: 0.665 MRR 3p: 0.247 MRR ip: 0.281 MRR pi: 0.439 MRR up: 0.252 |
| complex-query-answering-on-fb15k-237 | BetaE | MRR 1p: 0.39 MRR 2i: 0.288 MRR 2p: 0.109 MRR 2u: 0.124 MRR 3i: 0.425 MRR 3p: 0.1 MRR ip: 0.126 MRR pi: 0.224 MRR up: 0.097 |
| complex-query-answering-on-nell-995 | BetaE | MRR 1p: 0.53 MRR 2i: 0.376 MRR 2p: 0.13 MRR 2u: 0.122 MRR 3i: 0.475 MRR 3p: 0.114 MRR ip: 0.143 MRR pi: 0.241 MRR up: 0.085 |