
摘要
常识性问答旨在回答那些需要背景知识但并未在问题中明确表达的问题。其核心挑战在于如何从外部知识中获取证据,并基于这些证据进行推理预测。现有方法要么依赖人工标注的证据进行训练,而这类数据的收集成本较高;要么从结构化或非结构化知识库中提取证据,但未能有效融合两类知识源的优势。本文提出一种自动从异构知识源中提取证据,并基于所提取证据进行问答的新方法。具体而言,我们从结构化知识库(如ConceptNet)和维基百科的非结构化文本中同时提取证据,并为两类知识源构建图结构,以捕捉证据之间的关系。基于这些图结构,我们提出一种基于图的推理方法,包含两个核心模块:基于图的上下文词表示学习模块与基于图的推理模块。第一个模块利用图的结构信息重新定义词语间的距离,从而学习更优的上下文词表示;第二个模块采用图卷积网络(GCN)将邻接节点的信息编码到节点表示中,并通过图注意力机制聚合证据,最终预测答案。在CommonsenseQA数据集上的实验结果表明,该基于图的跨知识源融合方法显著优于多个强基线模型。本方法在CommonsenseQA排行榜上取得了75.3%的最新最高准确率,达到当前最优水平。
代码仓库
DecstionBack/AAAI_2020_CommonsenseQA
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| common-sense-reasoning-on-commonsenseqa | XLNet+GraphReason | Accuracy: 75.3 |