
摘要
我们提出了一种统一的3D人体姿态估计方法,该方法从单个原始RGB图像出发,同时考虑2D关节估计和3D姿态重建,以提高这两项任务的性能。我们采用了一种集成的方法,将3D人体姿态的概率知识与多阶段CNN架构相融合,并利用合理的3D地标位置知识来优化2D位置的搜索。整个过程经过端到端训练,具有极高的效率,并在Human3.6M数据集上取得了最先进的结果,其在2D和3D误差方面均优于先前的方法。
代码仓库
SyBorg91/pose-estimation-detection
tf
GitHub 中提及
h44rd/PoseTransferMayaPlugin
GitHub 中提及
anfidthtn/HAC
tf
GitHub 中提及
SyedUmaidAhmed/Pose-Detection-Sitting-Standing
tf
GitHub 中提及
Watson-BCA/HumanPostureRecognition
tf
GitHub 中提及
zhec/tf-pose-estimation
tf
GitHub 中提及
satyaborg/pose-estimation-detection
tf
GitHub 中提及
swathi-469/Teresa-Bot
tf
GitHub 中提及
sourabhagrawal23/human-action-classification
tf
GitHub 中提及
dronefreak/human-action-classification
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | Projected-pose belief maps + 2D fusion layers | Average MPJPE (mm): 88.39 |
| monocular-3d-human-pose-estimation-on-human3 | Projected-pose belief maps + 2D fusion layers | Average MPJPE (mm): 88.39 Frames Needed: 1 Need Ground Truth 2D Pose: No Use Video Sequence: No |
| weakly-supervised-3d-human-pose-estimation-on | Tome et al. | 3D Annotations: No Average MPJPE (mm): 88.4 Number of Frames Per View: 1 Number of Views: 1 |