3 个月前

大规模的短语密集表示学习

大规模的短语密集表示学习

摘要

开放域问答任务可被重新表述为一个短语检索问题,从而在推理阶段无需实时处理文档(Seo 等,2019)。然而,当前的短语检索模型严重依赖稀疏表示,性能仍落后于检索-阅读联合模型。在本工作中,我们首次证明,仅通过学习短语的稠密表示,即可在开放域问答任务中实现显著更强的性能。我们提出了一种有效方法,利用阅读理解任务的监督信号来学习短语表示,并结合新颖的负采样策略。此外,我们还引入了一种查询端微调策略,能够支持迁移学习,并有效缓解训练与推理阶段之间的分布差异。在五个主流的开放域问答数据集上,我们的模型 DensePhrases 相较于以往的短语检索模型,绝对准确率提升了 15%–25%,并达到了当前最优检索-阅读模型的性能水平。由于采用纯稠密表示,DensePhrases 模型具有良好的并行化能力,在 CPU 上每秒可处理超过 10 个问题。最后,我们直接将预索引的稠密短语表示应用于两个槽位填充任务,验证了 DensePhrases 作为下游任务稠密知识库的潜力。

代码仓库

princeton-nlp/SimCSE
pytorch
GitHub 中提及
dmis-lab/gener
pytorch
GitHub 中提及
jhyuklee/DensePhrases
官方
pytorch
GitHub 中提及
princeton-nlp/DensePhrases
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
question-answering-on-natural-questions-longDensePhrases
EM: 71.9
F1: 79.6
question-answering-on-squad11-devDensePhrases
EM: 78.3
F1: 86.3
slot-filling-on-kilt-t-rexDensePhrases
Accuracy: 53.9
F1: 61.74
KILT-AC: 27.84
KILT-F1: 32.34
R-Prec: 37.62
Recall@5: 40.07
slot-filling-on-kilt-zero-shot-reDensePhrases
Accuracy: 47.42
F1: 54.75
KILT-AC: 41.34
KILT-F1: 46.79
R-Prec: 57.43
Recall@5: 60.47

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
大规模的短语密集表示学习 | 论文 | HyperAI超神经