
摘要
我们提出了一种多人检测和二维姿态估计的方法,在具有挑战性的COCO关键点任务中取得了最先进的结果。该方法简单而强大,采用自上而下的两阶段策略。在第一阶段,我们预测可能包含人的边界框的位置和尺度;为此,我们使用了Faster R-CNN检测器。在第二阶段,我们估计每个提议边界框内潜在人物的关键点。对于每种关键点类型,我们使用全卷积ResNet预测密集热图和偏移量。为了结合这些输出,我们引入了一种新颖的聚合程序以获得高度局部化的关键点预测。此外,我们采用了基于关键点的非极大值抑制(Non-Maximum Suppression, NMS)的新形式,而不是粗略的基于边界框的NMS,并且使用了一种基于关键点的置信度评分估计的新方法,而不是基于边界框的评分。仅在COCO数据集上训练,我们的最终系统在COCO测试开发集上的平均精度达到了0.649,在测试标准集上的平均精度为0.643,超过了2016年COCO关键点挑战赛的获胜者和其他最近的最先进方法。进一步地,通过使用额外的内部标注数据,我们在测试开发集上获得了更高的平均精度0.685,在测试标准集上为0.673,相比同一数据集上前一个最佳方法提高了超过5%的绝对精度。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| keypoint-detection-on-coco-test-challenge | G-RMI* | AP: 69.1 AP50: 85.9 AP75: 75.2 APL: 82.4 AR: 75.1 AR50: 90.7 AR75: 80.7 ARL: 74.5 ARM: 69.7 |
| keypoint-detection-on-coco-test-dev | G-RMI | AP50: 85.5 AP75: 71.3 APL: 70.0 APM: 62.3 AR: 69.7 AR50: 88.7 AR75: 75.5 ARL: 77.1 ARM: 64.4 |
| multi-person-pose-estimation-on-coco | G-RMI | AP: 0.649 |
| multi-person-pose-estimation-on-coco | G-RMI* | AP: 0.685 |
| multi-person-pose-estimation-on-coco-test-dev | G-RMI | AP: 64.9 AP50: 85.5 AP75: 71.3 APL: 70.0 APM: 62.3 |
| pose-estimation-on-coco-test-dev | G-RMI | AP: 64.9 AP50: 85.5 AP75: 71.3 APL: 70.0 AR: 69.7 |