4 个月前

CEDR:上下文化文档嵌入用于文档排序

CEDR:上下文化文档嵌入用于文档排序

摘要

尽管近年来神经排序架构受到了广泛关注,但用于这些模型输入的词条表示却远未得到足够的重视。在本研究中,我们探讨了如何利用两种预训练的上下文语言模型(ELMo 和 BERT)进行临时文档排序。通过在 TREC 基准上的实验,我们发现现有的几种神经排序架构可以从上下文语言模型提供的额外上下文中受益。此外,我们提出了一种联合方法,将 BERT 的分类向量融入现有的神经模型中,并证明该方法优于当前最先进的临时文档排序基线。我们将这种联合方法称为 CEDR(用于文档排序的上下文嵌入)。我们还讨论了使用这些模型进行排序时面临的一些实际挑战,包括 BERT 对最大输入长度的限制以及上下文语言模型对运行时性能的影响。

代码仓库

ssun32/clirmatrix_cedr
pytorch
GitHub 中提及
crystina-z/CEDR_tpu
pytorch
GitHub 中提及
Georgetown-IR-Lab/cedr
官方
pytorch
GitHub 中提及
TikaToka/CapstoneSpring
pytorch
GitHub 中提及
Crysitna/CEDR_tpu
pytorch
GitHub 中提及

基准测试

基准方法指标
ad-hoc-information-retrieval-on-trec-robust04CEDR-KNRM
P@20: 0.4667
nDCG@20: 0.5381
ad-hoc-information-retrieval-on-trec-robust04Vanilla BERT
P@20: 0.4042
nDCG@20: 0.4541

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
CEDR:上下文化文档嵌入用于文档排序 | 论文 | HyperAI超神经