4 个月前

位置引导的文本提示用于视觉-语言预训练

位置引导的文本提示用于视觉-语言预训练

摘要

视觉-语言预训练(Vision-Language Pre-Training, VLP)在对齐图像和文本对方面展示了令人鼓舞的能力,促进了多种跨模态学习任务的发展。然而,我们观察到VLP模型通常缺乏视觉定位能力,这对于许多下游任务(如视觉推理)至关重要。在这项工作中,我们提出了一种新的位置引导文本提示(Position-guided Text Prompt, PTP)范式,以增强通过VLP训练的跨模态模型的视觉定位能力。具体而言,在VLP阶段,PTP将图像划分为$N \times N$个块,并通过广泛使用的对象检测器识别每个块中的对象。然后,它通过鼓励模型预测给定块中的对象或回归给定对象所在的块,将视觉定位任务重新表述为填空问题,例如在PTP中填充“P”或“O”,形成句子“The block P has a O”。这种机制提高了VLP模型的视觉定位能力,从而帮助它们更好地处理各种下游任务。我们将PTP引入几个最先进的VLP框架后,发现在代表性跨模态学习模型架构和多个基准测试中均取得了显著且一致的改进。例如,在ViLT \cite{vilt}基线模型上,零样本Flickr30K检索任务的平均召回率@1提高了4.8;在SOTA BLIP \cite{blip}基线模型上,COCO图像描述任务的CIDEr分数提高了5.3。此外,PTP在性能上与基于对象检测器的方法相当,并且由于PTP在推理时丢弃了其对象检测器而后者无法做到这一点,因此PTP具有更快的推理速度。我们的代码和预训练权重将在\url{https://github.com/sail-sg/ptp}发布。

代码仓库

sail-sg/ptp
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
cross-modal-retrieval-on-coco-2014PTP-BLIP (14M)
Image-to-text R@1: 81.5
Image-to-text R@10: 97.9
Image-to-text R@5: 95.9
Text-to-image R@1: 64.9
Text-to-image R@10: 92.2
Text-to-image R@5: 87.4
image-captioning-on-coco-captionsPTP-BLIP (14M)
BLEU-4: 40.1
CIDER: 135.0
METEOR: 30.4
SPICE: 23.7
zero-shot-cross-modal-retrieval-on-coco-2014PTP-BLIP
Image-to-text R@1: 69.7
Image-to-text R@10: 94.7
Image-to-text R@5: 90.0
Text-to-image R@1: 49.5
Text-to-image R@10: 84.2
Text-to-image R@5: 75.9
zero-shot-cross-modal-retrieval-on-flickr30kPTP-BLIP (14M)
Image-to-text R@1: 87.1
Image-to-text R@10: 99.3
Image-to-text R@5: 98.4
Text-to-image R@1: 73.1
Text-to-image R@10: 94.8
Text-to-image R@5: 91.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
位置引导的文本提示用于视觉-语言预训练 | 论文 | HyperAI超神经