
摘要
常识性问答(QA)要求模型具备常识与事实性知识,以回答关于世界事件的相关问题。以往的许多方法将语言建模与知识图谱(KG)相结合。然而,尽管知识图谱蕴含丰富的结构化信息,却缺乏上下文,难以对概念提供更精确的理解。这种局限性在将知识图谱融入语言建模过程中造成了信息鸿沟,尤其在标注数据不足的情况下更为显著。为此,我们提出利用外部实体描述来为知识理解提供上下文信息。具体而言,我们从维基词典(Wiktionary)中检索相关概念的描述,并将其作为额外输入馈入预训练语言模型。实验结果表明,该方法在CommonsenseQA数据集上取得了当前最优性能,在OpenBookQA数据集中非生成式模型中也取得了最佳成绩。
代码仓库
microsoft/DEKCOR-CommonsenseQA
官方
pytorch
GitHub 中提及
microsoft/kear
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| common-sense-reasoning-on-commonsenseqa | DEKCOR | Accuracy: 83.3 |
| question-answering-on-openbookqa | TTTTT 3B | Accuracy: 83.2 |
| question-answering-on-openbookqa | DEKCOR | Accuracy: 82.4 |