
摘要
步态识别是一种有前景的基于视频的生物特征技术,可以从远距离识别个人的行走模式。目前,大多数步态识别方法使用轮廓图像来表示每一帧中的人体。然而,轮廓图像可能会丢失细粒度的空间信息,而且大多数论文并未考虑如何在复杂场景中获取这些轮廓图像。此外,轮廓图像不仅包含步态特征,还可能包含其他可被识别的视觉线索。因此,这些方法不能被视为严格的步态识别。我们利用近期在人体姿态估计方面的进展,直接从RGB图像中估计出稳健的骨架姿态,从而恢复了基于模型的步态识别,并提供了更清晰的步态表示。为此,我们提出了GaitGraph,该方法结合了骨架姿态和图卷积网络(GCN),以获得一种现代的基于模型的步态识别方法。其主要优势在于更清晰、更优雅地提取步态特征,并且能够利用GCN进行强大的时空建模。在流行的CASIA-B步态数据集上的实验表明,我们的方法在基于模型的步态识别中达到了最先进的性能。代码和模型已公开可用。
代码仓库
tteepe/gaitgraph2
pytorch
GitHub 中提及
tteepe/GaitGraph
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multiview-gait-recognition-on-casia-b | GaitGraph | Accuracy (Cross-View, Avg): 76.3 BG#1-2: 74.8 CL#1-2: 66.3 NM#5-6 : 87.7 |