4 个月前

多粒度视觉语言预训练:文本与视觉概念的对齐

多粒度视觉语言预训练:文本与视觉概念的对齐

摘要

现有的大多数视觉语言预训练方法依赖于通过对象检测提取的以对象为中心的特征,并在提取的特征与文本之间进行细粒度对齐。这些方法在学习多个对象之间的关系时面临挑战。为此,我们提出了一种新的方法,称为X-VLM,用于执行“多粒度视觉语言预训练”。学习多粒度对齐的关键在于根据相关文本定位图像中的视觉概念,并同时将文本与视觉概念对齐,其中对齐具有多粒度特性。实验结果表明,X-VLM能够有效利用所学的多粒度对齐,在许多下游视觉语言任务中表现出色,并且始终优于现有最先进方法。

代码仓库

zengyan-97/x-vlm
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
cross-modal-retrieval-on-coco-2014X-VLM (base)
Image-to-text R@1: 81.2
Image-to-text R@10: 98.2
Image-to-text R@5: 95.6
Text-to-image R@1: 63.4
Text-to-image R@10: 91.5
Text-to-image R@5: 85.8
cross-modal-retrieval-on-flickr30kX-VLM (base)
Image-to-text R@1: 97.1
Image-to-text R@10: 100.0
Image-to-text R@5: 100.0
Text-to-image R@1: 86.9
Text-to-image R@10: 98.7
Text-to-image R@5: 97.3
image-captioning-on-coco-captionsX-VLM (base)
BLEU-4: 41.3
CIDER: 140.8
image-retrieval-on-flickr30k-1k-testX-VLM (base)
R@1: 86.9
R@10: 98.7
R@5: 97.3
open-vocabulary-attribute-detection-on-ovad-1X-VLM
mean average precision: 28.0
visual-grounding-on-refcoco-test-bX-VLM (base)
Accuracy (%): 76.91
visual-grounding-on-refcoco-testaX-VLM (base)
Accuracy (%): 89.00
visual-grounding-on-refcoco-valX-VLM (base)
Accuracy (%): 84.51
visual-question-answering-on-vqa-v2-test-devX-VLM (base)
Accuracy: 78.22
visual-reasoning-on-nlvr2-devX-VLM (base)
Accuracy: 84.41
visual-reasoning-on-nlvr2-testX-VLM (base)
Accuracy: 84.76

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多粒度视觉语言预训练:文本与视觉概念的对齐 | 论文 | HyperAI超神经