3 个月前

CLIP2Video:通过图像CLIP实现视频-文本检索的精准掌握

CLIP2Video:通过图像CLIP实现视频-文本检索的精准掌握

摘要

我们提出CLIP2Video网络,实现将图像-语言预训练模型端到端地迁移至视频-文本检索任务。当前视频与语言学习领域的主流方法通常从大规模视频-文本数据集中蒸馏时空视频特征以及视频与语言之间的多模态交互信息。与之不同,我们采用预训练的图像-语言模型,将其简化为一种两阶段框架,分别实现图像-文本的协同学习以及视频帧间时序关系的增强,从而使其能够在相对较小的数据集上进行有效训练。具体而言,基于对比语言-图像预训练(CLIP)模型所捕捉的空间语义,我们的模型引入了时序差分模块(Temporal Difference Block),用于在细粒度的时间视频帧上捕捉运动信息;同时设计了时序对齐模块(Temporal Alignment Block),以重新对齐视频片段与语义短语的标记(tokens),并增强多模态之间的关联性。我们进行了详尽的消融实验,并在多个主流文本到视频及视频到文本检索基准测试中取得了当前最优性能,包括在MSR-VTT、MSVD和VATEX数据集上刷新了检索准确率的新纪录。

代码仓库

CryhanFang/CLIP2Video
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
video-retrieval-on-msr-vttCLIP2Video
text-to-video Mean Rank: 45.4
text-to-video Median Rank: 4
text-to-video R@1: 29.8
text-to-video R@10: 66.2
text-to-video R@5: 55.5
video-to-text Mean Rank: 5.3
video-to-text Median Rank: 1
video-to-text R@1: 54.6
video-to-text R@10: 90.8
video-to-text R@5: 82.1
video-retrieval-on-msr-vtt-1kaCLIP2Video
text-to-video Mean Rank: 14.6
text-to-video Median Rank: 2
text-to-video R@1: 45.6
text-to-video R@10: 81.7
text-to-video R@5: 72.6
video-to-text Mean Rank: 10.2
video-to-text Median Rank: 2
video-to-text R@1: 43.3
video-to-text R@10: 82.1
video-to-text R@5: 72.3
video-retrieval-on-vatexCLIP2Video
text-to-video R@1: 57.3
text-to-video R@10: 90
text-to-video R@50: 95.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
CLIP2Video:通过图像CLIP实现视频-文本检索的精准掌握 | 论文 | HyperAI超神经