4 个月前

利用多视角进行无标记3D人体姿态注释

利用多视角进行无标记3D人体姿态注释

摘要

近期卷积网络(ConvNets)的发展已将许多计算机视觉任务的瓶颈转移到了注释数据的收集上。在本文中,我们提出了一种基于几何的方法,用于自动收集人体姿态预测任务的注释。从一个通用的2D人体姿态卷积网络出发,并假设多视图设置,我们描述了一种自动收集精确3D人体姿态注释的方法。我们利用相机设置提供的3D几何约束和人体的3D结构,以概率方式将每个视图的2D卷积网络预测结果组合成一个全局最优的3D姿态。该3D姿态被用作收集注释的基础。我们的方法自动生成的注释在两个具有挑战性的场景中得到了验证:(i) 对通用的基于卷积网络的2D姿态预测器进行微调,以捕捉主体外观的独特特征(即“个性化”),以及 (ii) 从零开始训练一个卷积网络,用于单视图3D人体姿态预测,而不依赖于3D姿态的真实标签。所提出的多视图姿态估计器在标准基准测试中取得了最先进的结果,证明了我们的方法在利用可用多视图信息方面的有效性。

基准测试

基准方法指标
3d-human-pose-estimation-on-human36mHarvesting pose annotations.
Average MPJPE (mm): 56.9
weakly-supervised-3d-human-pose-estimation-onPavlakos et al.
3D Annotations: No
Average MPJPE (mm): 118.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
利用多视角进行无标记3D人体姿态注释 | 论文 | HyperAI超神经