
摘要
近期卷积网络(ConvNets)的发展已将许多计算机视觉任务的瓶颈转移到了注释数据的收集上。在本文中,我们提出了一种基于几何的方法,用于自动收集人体姿态预测任务的注释。从一个通用的2D人体姿态卷积网络出发,并假设多视图设置,我们描述了一种自动收集精确3D人体姿态注释的方法。我们利用相机设置提供的3D几何约束和人体的3D结构,以概率方式将每个视图的2D卷积网络预测结果组合成一个全局最优的3D姿态。该3D姿态被用作收集注释的基础。我们的方法自动生成的注释在两个具有挑战性的场景中得到了验证:(i) 对通用的基于卷积网络的2D姿态预测器进行微调,以捕捉主体外观的独特特征(即“个性化”),以及 (ii) 从零开始训练一个卷积网络,用于单视图3D人体姿态预测,而不依赖于3D姿态的真实标签。所提出的多视图姿态估计器在标准基准测试中取得了最先进的结果,证明了我们的方法在利用可用多视图信息方面的有效性。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | Harvesting pose annotations. | Average MPJPE (mm): 56.9 |
| weakly-supervised-3d-human-pose-estimation-on | Pavlakos et al. | 3D Annotations: No Average MPJPE (mm): 118.4 |