
摘要
视频标注既繁琐又昂贵,且不具备可扩展性。然而,许多强大的视频模型仍然依赖于人工标注的数据。随着HowTo100M数据集的最近引入,带有旁白的视频现在提供了在无需人工监督的情况下学习视频表示的可能性。在这项工作中,我们提出了一种新的学习方法——MIL-NCE(多实例学习对比编码),该方法能够解决带有旁白的视频中固有的对齐问题。通过这种方法,我们能够从零开始学习强大的视频表示,而无需任何人工标注。我们在八个数据集上的四个下游任务中评估了我们的表示方法:动作识别(HMDB-51、UCF-101、Kinetics-700)、文本到视频检索(YouCook2、MSR-VTT)、动作定位(YouTube-8M Segments、CrossTask)以及动作分割(COIN)。我们的方法在这几项任务上均优于所有已发表的自监督方法,并且在某些任务上还超过了几个完全监督的基线模型。
代码仓库
antoine77340/S3D_HowTo100M
pytorch
GitHub 中提及
antoine77340/milnce_howto100m
pytorch
GitHub 中提及
antoine77340/MIL-NCE_HowTo100M
官方
pytorch
GitHub 中提及
linjieli222/hero_video_feature_extractor
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-recognition-on-rareact | HT100M S3D | mWAP: 30.5 |
| action-segmentation-on-coin | CBT | Frame accuracy: 53.9 |
| action-segmentation-on-coin | MIL-NCE | Frame accuracy: 61.0 |
| long-video-retrieval-background-removed-on | MIL-NCE | Cap. Avg. R@1: 43.1 Cap. Avg. R@10: 79.1 Cap. Avg. R@5: 68.6 |
| zero-shot-video-retrieval-on-msr-vtt | MIL-NCE | text-to-video Mean Rank: 29.5 text-to-video R@1: 9.9 text-to-video R@10: 32.4 text-to-video R@5: 24.0 |
| zero-shot-video-retrieval-on-youcook2 | MIL-NCE | text-to-video Mean Rank: 10 text-to-video R@1: 15.1 text-to-video R@10: 51.2 text-to-video R@5: 38.0 |