
摘要
大多数成功的自监督学习方法都是通过对数据中的两个独立视图进行表示对齐来训练的。视频领域的最先进方法受到图像技术的启发,其中这两个视图通过裁剪和增强裁剪后的区域以类似的方式提取。然而,这些方法忽略了视频领域中一个关键的要素:时间。我们引入了BraVe,一种用于视频的自监督学习框架。在BraVe中,其中一个视图仅能访问视频的一个狭窄的时间窗口,而另一个视图则可以广泛访问视频内容。我们的模型学会了从狭窄视图泛化到整个视频的内容。此外,BraVe使用不同的主干网络处理这两个视图,从而可以在广泛的视图中引入替代的数据增强方法或模态,例如光流、随机卷积的RGB帧、音频或它们的组合。我们证明了BraVe在标准的视频和音频分类基准测试(如UCF101、HMDB51、Kinetics、ESC-50和AudioSet)上实现了最先进水平的自监督表示学习结果。
代码仓库
deepmind/brave
官方
jax
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| self-supervised-action-recognition-on | BraVe:V-FA (TSM-50x2) | Top-1 Accuracy: 71.4 |
| self-supervised-action-recognition-on-hmdb51 | BraVe:V-FA (TSM-50x2) | Frozen: false Top-1 Accuracy: 70.5 |
| self-supervised-action-recognition-on-hmdb51-1 | BraVe:V-FA (TSM-50x2) | Top-1 Accuracy: 77.8 |
| self-supervised-action-recognition-on-ucf101 | BraVe:V-FA (TSM-50x2) | 3-fold Accuracy: 93.1 Frozen: false |
| self-supervised-action-recognition-on-ucf101-1 | BraVe:V-FA (TSM-50x2) | 3-fold Accuracy: 95.7 |