4 个月前

跨视角融合用于三维人体姿态估计

跨视角融合用于三维人体姿态估计

摘要

我们提出了一种通过在模型中融入多视图几何先验来从多视图图像中恢复绝对3D人体姿态的方法。该方法包括两个独立的步骤:(1)估计多视图图像中的2D姿态;(2)从多视图2D姿态中恢复3D姿态。首先,我们将一种跨视图融合方案引入卷积神经网络(CNN),以联合估计多个视图的2D姿态。因此,每个视图的2D姿态估计已经受益于其他视图的信息。其次,我们提出了一种递归的图像结构模型(Pictorial Structure Model),用于从多视图2D姿态中恢复3D姿态。该模型逐步提高3D姿态的准确性,同时计算成本可控。我们在两个公开数据集H36M和Total Capture上测试了我们的方法。这两个数据集上的平均关节位置误差分别为26毫米和29毫米,显著优于现有最先进方法(26毫米对比52毫米,29毫米对比35毫米)。我们的代码已发布在 \url{https://github.com/microsoft/multiview-human-pose-estimation-pytorch}。

基准测试

基准方法指标
3d-human-pose-estimation-on-human36mFusion-RPSM (t=10)
Average MPJPE (mm): 31.17
Multi-View or Monocular: Multi-View
Using 2D ground-truth joints: No
3d-human-pose-estimation-on-human36mFusion-RPSM (t=10, H36M+MPII)
Average MPJPE (mm): 26.21
Multi-View or Monocular: Multi-View
Using 2D ground-truth joints: No
3d-human-pose-estimation-on-total-captureFusion-RPSM
Average MPJPE (mm): 29.0
3d-human-pose-estimation-on-total-captureSingle-RPSM
Average MPJPE (mm): 41.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
跨视角融合用于三维人体姿态估计 | 论文 | HyperAI超神经