
摘要
我们提出了一种快速的自底向上方法,能够同时检测人体或物体上的100多个关键点,这一过程也被称为人体/物体姿态估计。我们将属于人体或物体的所有关键点——即姿态——建模为一个图,并利用社区检测中的见解来量化关键点的独立性。我们采用一种图中心性度量方法为姿态的不同部分分配训练权重。所提出的度量方法量化了一个关键点与其邻域连接的紧密程度。实验结果表明,我们的方法在面部、手部和脚部的细粒度关键点注释上(共计133个关键点)超越了所有先前的人体姿态估计方法。此外,我们还证明了该方法可以推广到汽车姿态估计。
代码仓库
duncanzauss/keypoint_communities
官方
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 2d-human-pose-estimation-on-coco-wholebody-1 | Zauss et al. | WB: 60.4 body: 69.6 face: 85.0 foot: 63.4 hand: 52.9 |
| car-pose-estimation-on-apollocar3d | Zauss et al. | Detection Rate: 91.9 |