
摘要
本文研究了复合图像检索(CIR)问题,其目标是训练一个模型,该模型能够融合多模态信息(例如文本和图像),以准确检索与查询匹配的图像,从而扩展用户的表达能力。我们做出了以下贡献:(i) 我们提出了一种可扩展的管道,用于自动构建训练CIR模型的数据集,通过利用大规模的图像-文本对数据集(如LAION-5B的一个子集)来实现;(ii) 我们引入了一种基于变压器的自适应聚合模型——TransAgg,该模型采用了一种简单而高效的融合机制,能够自适应地结合来自不同模态的信息;(iii) 我们进行了广泛的消融研究,以探讨所提出的自动数据构建方法的有效性以及TransAgg核心组件的效果;(iv) 在零样本场景下(即在自动构建的数据集上进行训练,然后直接在目标下游数据集上进行推理,例如CIRR和FashionIQ),我们的方法要么与现有的最先进(SOTA)模型表现相当,要么显著优于这些模型。项目页面:https://code-kunkun.github.io/ZS-CIR/
代码仓库
Code-kunkun/ZS-CIR
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| zero-shot-composed-image-retrieval-zs-cir-on-1 | TransAgg (Laion-CIR-Combined) | R@1: 37.87 R@5: 68.88 R@50: 93.86 |
| zero-shot-composed-image-retrieval-zs-cir-on-2 | TransAgg (Laion-CIR-Combined) | (Recall@10+Recall@50)/2: 44.75 |