Hu XuGargi GhoshPo-Yao HuangPrahal AroraMasoumeh AminzadehChristoph FeichtenhoferFlorian MetzeLuke Zettlemoyer

摘要
我们提出了一种简化的、任务无关的多模态预训练方法,能够接受视频输入、文本输入,或两者同时输入,适用于多种下游任务。现有预训练方法通常具有任务特异性:一类采用单一跨模态编码器,要求同时输入两种模态,限制了其在检索类任务中的应用;另一类则采用两个单模态编码器进行更复杂的多任务学习,但导致跨模态融合较早发生,灵活性受限。相比之下,我们引入了新型的预训练掩码机制,能够更有效地在模态间进行混合(例如,强制对文本进行掩码以预测最接近的视频嵌入),同时保持模态间的可分离性(例如,在某些情况下仅需单模态预测,而不依赖全部输入)。实验结果表明,该方法在比以往方法更广泛的下游任务上均表现出色,性能常优于特定任务的预训练模型。代码已开源,地址为:https://github.com/pytorch/fairseq/tree/main/examples/MMPT。
代码仓库
pytorch/fairseq
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-segmentation-on-coin | VLM | Frame accuracy: 68.4 |
| temporal-action-localization-on-crosstask | VLM | Recall: 46.5 |
| video-captioning-on-youcook2 | VLM | BLEU-3: 17.78 BLEU-4: 12.27 CIDEr: 1.3869 METEOR: 18.22 ROUGE-L: 41.51 |
| video-retrieval-on-msr-vtt-1ka | VLM | text-to-video Median Rank: 4 text-to-video R@1: 28.10 text-to-video R@10: 67.40 text-to-video R@5: 55.50 |
| video-retrieval-on-youcook2 | VLM | text-to-video Median Rank: 4 text-to-video R@1: 27.05 text-to-video R@10: 69.38 text-to-video R@5: 56.88 |