
摘要
许多基于图像的感知任务可以表述为检测、关联和跟踪语义关键点,例如人体姿态估计和跟踪。在本研究中,我们提出了一种通用框架,该框架能够在单个阶段内同时检测并形成时空关键点关联,从而成为首个实时姿态检测和跟踪算法。我们介绍了一种通用的神经网络架构,该架构利用复合场(Composite Fields)来检测并构建一个时空姿态图,这是一个单一的连通图,其节点为多个帧中的语义关键点(例如人的身体关节)。对于时间关联部分,我们引入了时间复合关联场(Temporal Composite Association Field, TCAF),这需要扩展之前的复合场网络架构和训练方法。实验结果表明,我们的方法在多个公开数据集上(如COCO、CrowdPose以及PoseTrack 2017和2018数据集)具有竞争力的精度,并且速度提高了近一个数量级。此外,我们还展示了该方法可以推广到任何类别的语义关键点,如汽车部件和动物部位,从而提供一个适用于城市移动场景(如自动驾驶汽车和送货机器人)的整体感知框架。
代码仓库
vita-epfl/openpifpaf_posetrack
官方
pytorch
GitHub 中提及
yasutomo57jp/openpifpaf_ros
GitHub 中提及
openpifpaf/openpifpafwebdemo
GitHub 中提及
vita-epfl/openpifpaf
官方
pytorch
GitHub 中提及
openpifpaf/openpifpaf
pytorch
GitHub 中提及
openpifpaf/openpifpaf_posetrack
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| car-pose-estimation-on-apollocar3d | OpenPifPaf | Detection Rate: 86.1 |
| keypoint-detection-on-coco-test-dev | OpenPifPaf | AP: 70.9 APL: 76.8 APM: 67.1 |
| multi-person-pose-estimation-on-coco | OpenPifPaf | AP: 0.709 Test AP: 70.9 Validation AP: 71.0 |
| pose-estimation-on-crowdpose | OpenPifPaf | AP: 70.5 AP Easy: 78.4 AP Hard: 63.8 AP Medium: 72.1 AP50: 89.1 AP75: 76.1 |