4 个月前

基于统计矩和子空间描述符的自监督动作识别

基于统计矩和子空间描述符的自监督动作识别

摘要

在本文中,我们基于自监督的概念,以RGB帧作为输入,学习预测动作概念和辅助描述符(例如,物体描述符)。所谓的幻觉流被训练用于预测辅助线索,同时输入到分类层中,并在测试阶段进行幻觉生成以辅助网络。我们设计并生成了两种描述符:一种利用四种流行的物体检测器应用于训练视频,另一种则利用图像级和视频级显著性检测器。第一个描述符编码了检测器和ImageNet类别的预测分数、置信度分数以及边界框的空间位置和帧索引,以捕捉每段视频中的时空特征分布。另一个描述符则编码了显著性图的空域-角度梯度分布和强度模式。受概率分布特征函数的启发,我们在上述中间描述符上捕获了四个统计矩。由于均值、协方差、三阶共矩和四阶共矩的系数数量分别随特征向量维度线性、二次、三次和四次增长,我们通过其前n个主特征向量(即子空间)来描述协方差矩阵,并捕获偏度/峰度而非代价高昂的三阶共矩/四阶共矩。我们在五个流行的数据集上取得了最先进的结果,如Charades和EPIC-Kitchens。

基准测试

基准方法指标
action-classification-on-charadesDEEP-HAL with ODF+SDF (I3D)
MAP: 50.16
action-classification-on-charadesDEEP-HAL with ODF+SDF (AssembleNet++)
MAP: 62.29
action-recognition-in-videos-on-hmdb-51DEEP-HAL with ODF+SDF(I3D)
Average accuracy of 3 splits: 87.56
egocentric-activity-recognition-on-epic-1DEEP-HAL with ODF+SDF (AssembleNet++)
Actions Top-1 (S1): 35.8
Actions Top-1 (S2): 27.3
scene-recognition-on-yupDEEP-HAL with ODF+SDF (I3D)
Accuracy (%): 94.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于统计矩和子空间描述符的自监督动作识别 | 论文 | HyperAI超神经