4 个月前

基于文档的高效且鲁棒的最小上下文问答

基于文档的高效且鲁棒的最小上下文问答

摘要

针对文档的神经问答(QA)模型已经取得了显著的性能提升。尽管这些模型效果良好,但由于其对文档与问题之间复杂交互的建模,导致它们无法扩展到大型语料库。此外,近期的研究表明,这类模型对于对抗性输入非常敏感。在本文中,我们研究了回答问题所需的最小上下文,并发现现有数据集中大多数问题可以通过少量句子来解答。基于这一观察结果,我们提出了一种简单的句子选择器,用于选择输入问答模型的最小句子集。我们的整体系统在训练时间(最多减少15倍)和推理时间(最多减少13倍)上实现了显著的减少,同时在SQuAD、NewsQA、TriviaQA和SQuAD-Open上的准确率与当前最先进方法相当或更优。此外,我们的实验结果和分析表明,我们的方法对对抗性输入具有更强的鲁棒性。

基准测试

基准方法指标
question-answering-on-newsqaMINIMAL(Dyn)
EM: 50.1
F1: 63.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于文档的高效且鲁棒的最小上下文问答 | 论文 | HyperAI超神经