
摘要
单目3D人体姿态估计技术有潜力大幅增加人体运动数据的可用性。目前,表现最佳的单图像2D-3D提升模型通常使用图卷积网络(GCNs),这些网络通常需要一些手动输入来定义不同身体关节之间的关系。我们提出了一种基于变压器的新方法,该方法利用更为通用的自注意力机制来学习由表示关节的一系列标记组成的序列中的这些关系。我们发现,使用中间监督以及堆叠编码器之间的残差连接有助于提高性能。此外,我们建议在多任务学习框架中引入误差预测可以改善性能,使网络能够根据其置信度进行补偿。我们进行了广泛的消融研究,以证明我们的每一项贡献都能提升性能。进一步研究表明,我们的方法在单帧3D人体姿态估计方面显著优于近期的最先进水平。我们的代码和训练模型已在Github上公开发布。
代码仓库
seblutz/JointFormer
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-h3wb | Jointformer-flip | MPJPE: 63.0 |
| 3d-human-pose-estimation-on-human36m | Jointformer (CPN) | Average MPJPE (mm): 50.5 Multi-View or Monocular: Monocular Using 2D ground-truth joints: No |
| 3d-human-pose-estimation-on-human36m | Jointformer (GT) | Average MPJPE (mm): 34 Multi-View or Monocular: Monocular Using 2D ground-truth joints: Yes |