3 个月前

基于骨架的动作识别:移位图卷积网络

基于骨架的动作识别:移位图卷积网络

摘要

基于骨骼数据的动作识别在计算机视觉领域正受到越来越多的关注。近年来,图卷积网络(Graph Convolutional Networks, GCNs)通过将人体骨骼建模为时空图,取得了显著的性能提升。然而,基于GCN的方法计算复杂度较高,单个动作样本的计算量通常超过15 GFLOPs,部分最新方法甚至达到约100 GFLOPs。此外,空间图与时间图的感受野均存在灵活性不足的问题。尽管一些工作通过引入增量自适应模块增强了空间图的表达能力,但其性能仍受限于传统的GCN结构。为此,本文提出一种新型的移位图卷积网络(Shift Graph Convolutional Network, Shift-GCN),以同时解决上述两个问题。与依赖复杂常规图卷积不同,Shift-GCN由新颖的移位图操作和轻量级逐点卷积构成,其中移位图操作为时空图提供了灵活的感受野。在三个基于骨骼的动作识别数据集上的实验结果表明,所提出的Shift-GCN在性能上显著超越现有最先进方法,同时计算复杂度降低超过10倍。

基准测试

基准方法指标
skeleton-based-action-recognition-on-ntu-rgbd4s Shift-GCN
Accuracy (CS): 90.7
Accuracy (CV): 96.5
Ensembled Modalities: 4
skeleton-based-action-recognition-on-ntu-rgbd-14s Shift-GCN
Accuracy (Cross-Setup): 87.6%
Accuracy (Cross-Subject): 85.9%
Ensembled Modalities: 4
skeleton-based-action-recognition-on-uavShift-GCN
CSv1(%): 37.98
CSv2(%): 67.04

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于骨架的动作识别:移位图卷积网络 | 论文 | HyperAI超神经