
摘要
本文探讨了从单张图像中估计三维人体姿态的问题。长期以来,人体骨架通过满足重投影误差的方式进行参数化并拟合到观测数据上。然而,如今研究人员直接利用神经网络从观测数据中推断出三维姿态。尽管如此,大多数这些方法忽略了必须满足重投影约束这一事实,并且容易出现过拟合现象。我们通过忽略二维到三维的对应关系来解决过拟合问题。这有效地避免了对训练数据的简单记忆,并允许进行弱监督训练。所提出的重投影网络(RepNet)的一部分学习从二维姿态分布映射到三维姿态分布,采用对抗训练方法;另一部分则估计相机参数。这使得可以定义一个网络层,该层将估计的三维姿态重新投影回二维,从而生成重投影损失函数。实验结果表明,RepNet 对未知数据具有良好的泛化能力,并在应用于未见过的数据时优于现有最先进的方法。此外,我们的实现可以在标准台式电脑上实现实时运行。
代码仓库
bastianwandt/RepNet
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | RepNet (GTi) | Average MPJPE (mm): 50.9 |
| 3d-human-pose-estimation-on-human36m | RepNet | Average MPJPE (mm): 89.9 |
| 3d-human-pose-estimation-on-mpi-inf-3dhp | RepNet (H36M) | AUC: 54.8 MPJPE: 92.5 PCK: 81.8 |
| 3d-human-pose-estimation-on-mpi-inf-3dhp | RepNet (3DHP) | AUC: 58.5 MPJPE: 97.8 PCK: 82.5 |
| monocular-3d-human-pose-estimation-on-human3 | RepNet | Average MPJPE (mm): 89.9 Frames Needed: 1 Need Ground Truth 2D Pose: No Use Video Sequence: No |
| weakly-supervised-3d-human-pose-estimation-on | RepNet | 3D Annotations: No Average MPJPE (mm): 89.9 Number of Frames Per View: 1 Number of Views: 1 |