3 个月前

VLM:面向视频理解的无任务特定视频-语言模型预训练

VLM:面向视频理解的无任务特定视频-语言模型预训练

摘要

我们提出了一种简化的、任务无关的多模态预训练方法,能够接受视频输入、文本输入,或两者同时输入,适用于多种下游任务。现有预训练方法通常具有任务特异性:一类采用单一跨模态编码器,要求同时输入两种模态,限制了其在检索类任务中的应用;另一类则采用两个单模态编码器进行更复杂的多任务学习,但导致跨模态融合较早发生,灵活性受限。相比之下,我们引入了新型的预训练掩码机制,能够更有效地在模态间进行混合(例如,强制对文本进行掩码以预测最接近的视频嵌入),同时保持模态间的可分离性(例如,在某些情况下仅需单模态预测,而不依赖全部输入)。实验结果表明,该方法在比以往方法更广泛的下游任务上均表现出色,性能常优于特定任务的预训练模型。代码已开源,地址为:https://github.com/pytorch/fairseq/tree/main/examples/MMPT。

代码仓库

pytorch/fairseq
官方
pytorch

基准测试

基准方法指标
action-segmentation-on-coinVLM
Frame accuracy: 68.4
temporal-action-localization-on-crosstaskVLM
Recall: 46.5
video-captioning-on-youcook2VLM
BLEU-3: 17.78
BLEU-4: 12.27
CIDEr: 1.3869
METEOR: 18.22
ROUGE-L: 41.51
video-retrieval-on-msr-vtt-1kaVLM
text-to-video Median Rank: 4
text-to-video R@1: 28.10
text-to-video R@10: 67.40
text-to-video R@5: 55.50
video-retrieval-on-youcook2VLM
text-to-video Median Rank: 4
text-to-video R@1: 27.05
text-to-video R@10: 69.38
text-to-video R@5: 56.88

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
VLM:面向视频理解的无任务特定视频-语言模型预训练 | 论文 | HyperAI超神经