
摘要
鉴于近期在多模态大语言模型(LLMs)方面的进展,越来越多的研究关注将其从图像-文本数据扩展到更具信息量的真实世界视频。与静态图像相比,视频因其时空动态特性而在大规模预训练中带来了独特的挑战。本文中,我们通过一种高效的视频分解方法来解决视频-语言预训练中的这些限制,该方法将每个视频表示为关键帧和时间运动。然后,我们使用精心设计的分词器将视觉和时间信息离散化为少量的标记,从而实现对视频、图像和文本的统一生成式预训练。在推理阶段,从大语言模型生成的标记被仔细恢复到原始连续像素空间,以创建各种视频内容。我们的框架不仅能够理解和生成图像及视频内容,而且在13个涉及图像和视频理解与生成的多模态基准测试中表现出色。我们的代码和模型可在 https://video-lavit.github.io 获取。
代码仓库
jy0205/lavit
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| science-question-answering-on-scienceqa | Video-LaVIT | Avg. Accuracy: 70.0 |
| text-to-video-generation-on-msr-vtt | Video-LaVIT | CLIPSIM: 0.3012 FID: 11.27 FVD: 188.36 |
| video-generation-on-ucf-101 | Video-LaVIT | FVD16: 280.57 Inception Score: 44.26 |
| visual-question-answering-on-gqa-test-dev | Video-LaVIT | Accuracy: 64.4 |
| visual-question-answering-on-mm-vet | Video-LaVIT | GPT-4 score: 33.2 Params: 7B |
| visual-question-answering-on-mmbench | Video-LaVIT | GPT-3.5 score: 67.3 |
| visual-question-answering-on-vizwiz-2020-vqa | Video-LaVIT | overall: 56.0 |
| zeroshot-video-question-answer-on-activitynet | Video-LaVIT | Accuracy: 50.1 Confidence Score: 3.3 |
| zeroshot-video-question-answer-on-msrvtt-qa | Video-LaVIT | Accuracy: 59.3 Confidence Score: 3.3 |
| zeroshot-video-question-answer-on-msvd-qa | Video-LaVIT | Accuracy: 73.2 Confidence Score: 3.9 |