
摘要
估计一个人的头部姿态对于许多应用来说是一个关键问题,然而目前这一问题主要作为正面姿态预测的一个子任务来解决。本文提出了一种新颖的无约束端到端头部姿态估计方法,旨在应对全范围方向头部姿态预测这一具有挑战性的任务。为了解决旋转标签模糊的问题,我们引入了旋转矩阵形式来表示我们的真实数据,并提出了一种连续的6D旋转矩阵表示法,以实现高效且稳健的直接回归。这使得模型能够高效地学习完整的旋转外观,并克服现有最先进方法的局限性。结合提供全头部姿态旋转数据的新积累训练数据以及用于稳定学习的测地线损失方法,我们设计了一个先进的模型,该模型能够预测更广泛的头部方向。在公开数据集上的广泛评估表明,我们的方法在高效性和稳健性方面显著优于其他最先进方法,同时其扩展的预测范围也拓宽了应用领域。我们开源了训练和测试代码以及训练好的模型:https://github.com/thohemp/6DRepNet360。
代码仓库
thohemp/6drepnet360
官方
pytorch
GitHub 中提及
yakhyo/head-pose-estimation
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| head-pose-estimation-on-aflw2000 | 6DRepNet360 | MAEV: 4.64 |
| head-pose-estimation-on-aflw2000 | 6DRepNet | MAE: 3.61 MAEV: 4.66 |
| head-pose-estimation-on-biwi | 6DRepNet360 | MAE (trained with other data): 3.39 MAEV: 4.85 |
| head-pose-estimation-on-biwi | 6DRepNet | MAEV: 5.32 |
| head-pose-estimation-on-cmu-panoptic-300w-lp | 6DRepNet360 | MAE: 2.66 |