4 个月前

基于上下文的神经语言模型在信息检索中的深度文本理解

基于上下文的神经语言模型在信息检索中的深度文本理解

摘要

神经网络为自动学习复杂的语言模式和查询-文档关系提供了新的可能性。神经信息检索(IR)模型在学习查询-文档相关性模式方面已取得令人鼓舞的结果,但在理解查询或文档的文本内容方面却鲜有探索。本文研究了利用最近提出的上下文神经语言模型BERT,为信息检索提供更深层次的文本理解。实验结果表明,BERT提供的上下文文本表示比传统的词嵌入更为有效。与基于词袋的检索模型相比,上下文语言模型能够更好地利用语言结构,对自然语言编写的查询带来了显著的改进。将文本理解能力与搜索知识相结合,可以得到一个增强的预训练BERT模型,该模型能够在训练数据有限的相关搜索任务中发挥优势。

代码仓库

AdeDZY/SIGIR19-BERT-IR
官方
tf
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于上下文的神经语言模型在信息检索中的深度文本理解 | 论文 | HyperAI超神经