3 个月前

MegaPairs:面向通用多模态检索的大规模数据合成

MegaPairs:面向通用多模态检索的大规模数据合成

摘要

尽管多模态检索的需求迅速增长,该领域的进展仍严重受限于训练数据的匮乏。本文提出了一种名为MegaPairs的新颖数据合成方法,该方法利用视觉语言模型(VLMs)与开放域图像,生成了一个大规模的合成数据集。实证分析表明,MegaPairs能够生成高质量的数据,使得基于该数据训练的多模态检索模型,在性能上显著超越仅使用现有数据集70倍数据量训练的基线模型。此外,由于MegaPairs仅依赖通用图像语料库和开源视觉语言模型,具备良好的可扩展性,能够持续推动检索性能的提升。在当前阶段,我们已生成超过2600万条训练样本,并基于此数据集训练了多个不同规模的模型。这些新模型在4个主流的组合图像检索(CIR)基准测试中均达到当前最优的零样本性能,并在MMEB提供的36个数据集上取得了整体最高表现。同时,这些模型在后续的下游微调中也展现出显著的性能提升。我们所构建的数据集、训练完善的模型以及数据合成流程将全部公开,以推动该领域的未来发展。

代码仓库

VectorSpaceLab/MegaPairs
pytorch
GitHub 中提及

基准测试

基准方法指标
image-retrieval-on-cirrMMRet-MLLM
Recall@10: 85.1
image-retrieval-on-fashion-iqMMRet-MLLM
(Recall@10+Recall@50)/2: 46.1
Recall@10: 35.6
zero-shot-composed-image-retrieval-zs-cir-onMMRet-Base (CLIP B/16)
mAP@10: 35.0
zero-shot-composed-image-retrieval-zs-cir-onMMRet-Large (CLIP L/14)
mAP@10: 40.2
zero-shot-composed-image-retrieval-zs-cir-onMMRet-MLLM
mAP@10: 43.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MegaPairs:面向通用多模态检索的大规模数据合成 | 论文 | HyperAI超神经