
摘要
我们进行了一项大规模研究,探讨从视频中进行无监督时空表示学习的方法。通过对四种最近基于图像的框架进行统一视角的研究,我们提出了一种简单的目标函数,可以轻松地将所有这些方法推广到时空域。该目标函数鼓励同一视频中的特征在时间上具有持久性,尽管其设计简单,但在以下方面表现出惊人的效果:(i) 不同的无监督框架,(ii) 预训练数据集,(iii) 下游数据集,以及 (iv) 主干架构。通过这项研究,我们得出了一系列有趣的观察结果,例如,我们发现即使时间跨度为60秒,鼓励长时间持续性也能取得有效成果。除了在多个基准测试中取得最先进的结果外,我们还报告了几例无监督预训练优于有监督预训练的情况。代码已发布在 https://github.com/facebookresearch/SlowFast。
代码仓库
facebookresearch/SlowFast
官方
pytorch
GitHub 中提及
seleucia/goca
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| self-supervised-action-recognition-on-hmdb51 | pBYOL | Frozen: false Pre-Training Dataset: Kinetics400 Top-1 Accuracy: 75.0 |
| self-supervised-action-recognition-on-ucf101 | pBYOL | 3-fold Accuracy: 96.3 Frozen: false Pre-Training Dataset: Kinetics400 |