
摘要
在本工作中,我们提出了一种新的视频中三维人体姿态估计方法。不同于直接回归三维关节位置,我们借鉴人体骨骼解剖结构,将该任务分解为骨骼方向预测与骨骼长度预测两个子任务,从而可完全推导出三维关节位置。我们的动机在于:人体骨骼的长度在时间上保持恒定。这一特性促使我们设计有效方法,利用视频中所有帧的全局信息,实现高精度的骨骼长度预测。此外,针对骨骼方向预测网络,我们提出了一种全卷积传播架构,并引入长距离跳跃连接(long skip connections)。该架构能够以层级方式预测不同骨骼的方向,且无需使用任何耗时的记忆单元(如LSTM)。为进一步协调骨骼长度与骨骼方向预测网络的训练,我们引入了一种新颖的联合偏移损失(joint shift loss)。最后,我们采用隐式注意力机制,将二维关键点可见性分数作为额外引导信息输入模型,显著缓解了在复杂姿态下存在的深度模糊问题。实验结果表明,我们的完整模型在Human3.6M和MPI-INF-3DHP数据集上均超越了此前最优方法,全面的评估验证了所提模型的有效性。
代码仓库
sunnychencool/Anatomy3D
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | Anatomy3D (243 frames, Protocol 1) | Average MPJPE (mm): 32.3 Multi-View or Monocular: Monocular Using 2D ground-truth joints: Yes |
| 3d-human-pose-estimation-on-human36m | Anatomy3D | Average MPJPE (mm): 44.1 Multi-View or Monocular: Monocular Using 2D ground-truth joints: No |
| 3d-human-pose-estimation-on-mpi-inf-3dhp | Anatomy3D (T=243) | AUC: 53.8 MPJPE: 79.1 PCK: 87.8 |
| 3d-human-pose-estimation-on-mpi-inf-3dhp | Anatomy3D (T=81) | AUC: 54 MPJPE: 78.8 PCK: 87.9 |
| monocular-3d-human-pose-estimation-on-human3 | Anatomy3D | 2D detector: CPN Average MPJPE (mm): 44.1 Frames Needed: 243 Need Ground Truth 2D Pose: No Use Video Sequence: Yes |