
摘要
目前,我们从单张图像中训练端到端系统以进行三维人体姿态估计的能力受到自然图像中三维注释有限可用性的限制。大多数数据集是在工作室环境中使用运动捕捉(MoCap)系统获取的,难以达到如MPII或LSP等二维人体姿态数据集的多样性。为了减少对精确三维地面真值的需求,我们提出利用由人体关节顺序深度提供的较弱监督信号。这种信息可以通过人工注释者为广泛范围内的图像和姿态获取。我们在不同的设置下展示了使用这些顺序关系训练卷积网络(ConvNets)的有效性和灵活性,始终能够实现与使用精确三维关节坐标训练的卷积网络相媲美的性能。此外,为了展示该方法的潜力,我们为流行的LSP和MPII数据集增加了顺序深度注释。这一扩展使我们能够在非工作室条件下进行定量和定性评估。同时,这些顺序注释可以轻松地融入典型卷积网络用于三维人体姿态估计的训练过程中。通过这一纳入,我们在相关基准测试中实现了新的最先进性能,并验证了顺序深度监督在三维人体姿态估计中的有效性。
代码仓库
geopavlakos/ordinal-pose3d
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | Ordinal Depth Supervision | Average MPJPE (mm): 56.2 |
| 3d-human-pose-estimation-on-humaneva-i | Ordinal Depth Supervision | Mean Reconstruction Error (mm): 18.3 |
| 3d-human-pose-estimation-on-mpi-inf-3dhp | Ordinal Depth Supervision | AUC: 35.3 PCK: 71.9 |
| monocular-3d-human-pose-estimation-on-human3 | Ordinal Depth Supervision | Frames Needed: 1 Need Ground Truth 2D Pose: No Use Video Sequence: No |