
摘要
实时多人姿态估计在平衡速度和精度方面面临着显著挑战。虽然两阶段自上而下的方法随着图像中人数的增加而变慢,但现有的单阶段方法通常难以同时实现高精度和实时性能。本文介绍了一种名为RTMO的单阶段姿态估计框架,该框架通过在YOLO架构内使用双一维热图表示关键点,无缝集成了坐标分类,实现了与自上而下方法相当的精度,同时保持了高速度。我们提出了一种动态坐标分类器和专门为热图学习设计的损失函数,旨在解决坐标分类与密集预测模型之间的不兼容问题。RTMO超越了最先进的单阶段姿态估计器,在相同的骨干网络下,其在COCO数据集上的AP值比现有方法高出1.1%,且运行速度大约快9倍。我们的最大模型RTMO-l在COCO val2017数据集上达到了74.8%的AP值,并在单个V100 GPU上实现了141 FPS的速度,展示了其高效性和准确性。代码和模型可在以下地址获取:https://github.com/open-mmlab/mmpose/tree/main/projects/rtmo。
代码仓库
open-mmlab/mmpose
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-person-pose-estimation-on-crowdpose | RTMO-l | AP Easy: 88.8 AP Hard: 77.2 AP Medium: 84.7 FPS: 52.4 mAP @0.5:0.95: 83.8 |