
摘要
基于热图回归的深度学习模型已彻底革新了人脸关键点定位任务,现有模型在大姿态、非均匀光照与阴影、遮挡及自遮挡、低分辨率和模糊等复杂条件下均表现出较强的鲁棒性。然而,尽管该方法被广泛采用,热图回归仍存在由热图编码与解码过程中的离散化所引发的误差问题。本文研究表明,此类误差对人脸对齐精度产生了出人意料的显著负面影响。为缓解这一问题,我们提出一种基于底层连续分布的新编码-解码机制,以更精确地建模关键点位置。为进一步发挥该机制的优势,我们还引入了一种基于孪生网络的训练策略,通过强制在不同几何图像变换下保持热图的一致性,提升模型的泛化能力。所提方法在多个公开数据集上均取得了显著性能提升,达到了人脸关键点定位任务的新SOTA(state-of-the-art)水平。相关代码及预训练模型将公开发布于 https://www.adrianbulat.com/face-alignment。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| face-alignment-on-300w | SHR-FAN | NME_inter-ocular (%, Challenge): 4.13 NME_inter-ocular (%, Common): 2.61 NME_inter-ocular (%, Full): 2.94 |
| face-alignment-on-300w-split-2-300w-lp | SH-FAN | AUC@7 (bbox): 71.1 NME (bbox): 2.04 NME (inter-ocular): 2.94 |
| face-alignment-on-aflw-19 | SHR-FAN | AUC_box@0.07 (%, Full): 70.0 NME_box (%, Full): 2.14 NME_diag (%, Frontal): 1.12 NME_diag (%, Full): 1.31 |
| face-alignment-on-cofw | SH-FAN | NME (inter-ocular): 3.02% |
| face-alignment-on-cofw-68-300wlp | SH-FAN | AUC@7: 64.9 NME (box): 2.47 |
| face-alignment-on-wfw-extra-data | SH-FAN | AUC@10 (inter-ocular): 63.1 FR@10 (inter-ocular): 1.55 NME (inter-ocular): 3.72 |