
摘要
知识库问答(KBQA)旨在通过大规模知识库(KBs)回答自然语言问题,可以概括为两个关键步骤:知识检索和语义解析。然而,仍存在三个核心挑战:知识检索效率低下、检索错误对语义解析的负面影响以及现有KBQA方法的复杂性。为了应对这些挑战,我们提出了ChatKBQA,这是一种新颖且简单的生成-检索KBQA框架。该框架首先利用微调后的大型语言模型(LLMs)生成逻辑形式,然后通过无监督的检索方法检索并替换实体和关系,从而更直接地改进生成和检索过程。实验结果表明,ChatKBQA在标准的KBQA数据集WebQSP和CWQ上达到了新的最先进性能。这项工作也可以被视为一种新的范式,即将大型语言模型(LLMs)与知识图谱(KGs)结合用于可解释性和需要知识的问题回答。我们的代码已公开可用。
代码仓库
lhrlab/chatkbqa
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| knowledge-base-question-answering-on | ChatKBQA | Accuracy: 76.8 F1: 81.3 Hits@1: 86.0 |
| knowledge-base-question-answering-on-1 | ChatKBQA | Accuracy: 77.8 F1: 83.5 Hits@1: 86.4 |