Amanpreet SinghRonghang HuVedanuj GoswamiGuillaume CouaironWojciech GalubaMarcus RohrbachDouwe Kiela

摘要
当前最先进的视觉模型及视觉-语言模型依赖大规模的视觉-语言预训练,以在多种下游任务中取得优异性能。通常,这类模型要么采用跨模态(对比式)架构,要么采用多模态(早期融合)架构,但难以同时具备两者特性;此外,它们往往仅针对特定模态或任务进行优化。一个具有前景的研究方向是构建单一、统一的通用模型作为“基础模型”,能够同时覆盖所有模态——真正意义上的视觉与语言基础模型,应在视觉任务、语言任务以及跨模态和多模态的视觉-语言任务上均表现出色。为此,我们提出了FLAVA这一模型,并在涵盖上述各类模态的35项任务上展示了其卓越的综合性能。
代码仓库
social-ai-studio/matk
pytorch
GitHub 中提及
apsdehal/flava-tutorials
GitHub 中提及
facebookresearch/multimodal
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-retrieval-on-coco | FLAVA (zero-shot) | recall@1: 38.38 recall@5: 67.47 |
| image-retrieval-on-coco | CLIP (zero-shot) | recall@1: 33.29 recall@5: 62.47 |
| image-to-text-retrieval-on-coco | FLAVA (ViT-B, zero-shot) | Recall@1: 42.74 Recall@5: 76.76 |