3 个月前

GETT-QA:基于图嵌入的T2T Transformer用于知识图谱问答

GETT-QA:基于图嵌入的T2T Transformer用于知识图谱问答

摘要

在本工作中,我们提出了一种名为GETT-QA的端到端知识图谱问答(KGQA)系统。GETT-QA基于T5这一广泛使用的文本到文本预训练语言模型,该模型以自然语言形式的提问作为输入,并生成目标SPARQL查询的简化形式。在这一简化形式中,模型不直接输出实体和关系的ID,而是生成对应的实体和关系标签。这些标签将在后续步骤中被映射到知识图谱中的实体和关系ID。为进一步提升性能,我们引导模型为每个实体输出其知识图谱嵌入(KG embedding)的截断版本。该截断的KG嵌入有助于更精细的消歧搜索。我们发现,T5模型在无需修改损失函数的前提下,能够有效学习到这种截断的KG嵌入,从而显著提升KGQA任务的性能。实验结果表明,GETT-QA在Wikidata上的LC-QuAD 2.0和SimpleQuestions-Wikidata两个基准数据集上均取得了优异的端到端KGQA性能。

代码仓库

debayan/gett-qa
官方
pytorch

基准测试

基准方法指标
knowledge-base-question-answering-on-4GETT-QA
F1: 76.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供