
摘要
人脸识别系统需应对大量变异性因素(如不同姿态、光照条件和表情变化),这些因素可能导致错误的匹配判断。这些变异性可从人脸图像质量的角度进行衡量,图像质量定义为样本在识别任务中的可用性。以往的人脸识别研究或未充分利用这一有价值的信息,或采用非内在适配的质量估计方法。本文提出一种简单而高效的人脸识别方案(QMagFace),该方案将感知质量的比对得分与基于幅度感知角度间隔损失(magnitude-aware angular margin loss)的识别模型相结合。所提方法在比对过程中引入了与模型相关的图像质量信息,从而在非受限条件下显著提升识别性能。得益于所采用损失函数所诱导的质量与比对得分之间的线性关系,我们的质量感知比对函数结构简洁且具备高度泛化能力。在多个主流人脸数据库与基准测试上的实验结果表明,引入质量感知机制可带来稳定且一致的性能提升。尤其在具有挑战性的场景下,如跨姿态、跨年龄或跨质量条件下,QMagFace表现尤为突出。由此,该方法在多个主流人脸识别基准上取得了当前最优(state-of-the-art)的性能表现,例如在AgeDB上达到98.50%,在XQLFQ上达到83.95%,在CFP-FP上达到98.74%。QMagFace的代码已公开发布,可供学术与工业界使用。
代码仓库
pterhoer/QMagFace
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| face-recognition-on-cfp-fp | QMagFace | Accuracy: 0.8395 |
| face-recognition-on-lfw | QMagFace | Accuracy: 0.9850 |
| face-verification-on-cfp-fp | QMagFace | Accuracy: 0.9874 |
| face-verification-on-ijb-b | QMagFace | TAR @ FAR=0.0001: 94.7 TAR @ FAR=0.001: 96.48 TAR @ FAR=0.01: 97.72% TAR@FAR=0.0001: 94.7 |
| face-verification-on-ijb-c | QMagFace | TAR @ FAR=1e-2: 98.51 TAR @ FAR=1e-3: 97.62 TAR @ FAR=1e-4: 96.19% |