
摘要
视频理解需要在多个时空分辨率上进行推理——从短时的细粒度运动到持续时间较长的事件。尽管近年来基于Transformer的架构已显著推动了该领域的技术进步,但这些方法并未显式建模不同的时空分辨率。为此,我们提出了用于视频识别的多视角Transformer(Multiview Transformers for Video Recognition, MTV)。该模型采用独立的编码器来分别表征输入视频的不同视角,并通过横向连接实现跨视角的信息融合。我们对模型进行了全面的消融实验,结果表明,在不同模型规模下,MTV在准确率和计算成本方面均持续优于单视角模型。此外,我们在六个标准数据集上取得了当前最优的性能表现,并在大规模预训练的加持下进一步提升。相关代码与模型检查点已开源,地址为:https://github.com/google-research/scenic/tree/main/scenic/projects/mtv。
代码仓库
google-research/scenic
官方
jax
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-classification-on-kinetics-400 | MTV-H (WTS 60M) | Acc@1: 89.9 Acc@5: 98.3 FLOPs (G) x views: 735700x4x3 |
| action-classification-on-kinetics-600 | MTV-H (WTS 60M) | Top-1 Accuracy: 90.3 Top-5 Accuracy: 98.5 |
| action-classification-on-kinetics-700 | MTV-H (WTS 60M) | Top-1 Accuracy: 83.4 Top-5 Accuracy: 96.2 |
| action-classification-on-moments-in-time | MTV-H (WTS 60M) | Top 1 Accuracy: 47.2 Top 5 Accuracy: 75.7 |
| action-recognition-in-videos-on-something | MTV-B | Top-1 Accuracy: 68.5 Top-5 Accuracy: 90.4 |
| action-recognition-on-epic-kitchens-100 | MTV-B (WTS 60M) | Action@1: 50.5 Noun@1: 63.9 Verb@1: 69.9 |