
摘要
面部关键点检测,或称面部对齐,是一项基础任务,已得到广泛研究。在本文中,我们探讨了面部关键点检测的一个新视角,并证明这一方法可以带来显著的改进。鉴于任何面部图像都可以分解为捕捉光照、纹理和图像环境的风格空间以及一个与风格无关的结构空间,我们的核心思想是通过风格转换利用每个个体的解耦风格和形状空间来增强现有的结构。利用这些增强的合成样本,我们的半监督模型出乎意料地大幅超越了全监督模型。大量实验验证了我们这一想法的有效性,并在 WFLW、300W、COFW 和 AFLW 数据集上取得了最先进的结果。我们提出的结构具有通用性,可以集成到任何面部对齐框架中。代码已公开发布于 https://github.com/thesouthfrog/stylealign。
代码仓库
thesouthfrog/stylealign
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| face-alignment-on-300w | AVS | NME_inter-ocular (%, Challenge): 6.49 NME_inter-ocular (%, Common): 3.21 NME_inter-ocular (%, Full): 3.86 |
| face-alignment-on-wflw | AVS | AUC@10 (inter-ocular): 59.13 FR@10 (inter-ocular): 4.08 NME (inter-ocular): 4.39 |