
摘要
在本文中,我们提出了一种概念上简单且几何上可解释的目标函数,即加性边缘Softmax(AM-Softmax),用于深度人脸验证。一般来说,人脸验证任务可以视为一种度量学习问题,因此学习具有小类内变化和大类间差异的大边缘人脸特征对于实现良好性能至关重要。最近,已经提出了大边缘Softmax和角度Softmax以乘法方式引入角度边缘。在本工作中,我们引入了一种新颖的加性角度边缘,该方法比现有工作更具直观性和可解释性。我们还强调并讨论了特征归一化的重要性。最重要的是,我们在LFW BLUFR和MegaFace上的实验表明,使用相同的网络架构和训练数据集时,我们的加性边缘Softmax损失函数始终优于当前最先进的方法。我们的代码也已发布在https://github.com/happynear/AMSoftmax。
代码仓库
dalisson/am_softmax
pytorch
GitHub 中提及
zhen8838/Circle-Loss
tf
GitHub 中提及
vnbot2/arcface
pytorch
GitHub 中提及
cvqluu/Additive-Margin-Softmax-Loss-Pytorch
pytorch
GitHub 中提及
ppriyank/Pytorch-Additive_Margin_Softmax_for_Face_Verification
pytorch
GitHub 中提及
happynear/AMSoftmax
官方
tf
GitHub 中提及
chrisqqq123/FA-Dist-EfficientNet
pytorch
GitHub 中提及
doanmanhduy0210/ResearchPaperfacerecognitions
pytorch
GitHub 中提及
cvqluu/Angular-Penalty-Softmax-Losses-Pytorch
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| face-identification-on-trillion-pairs-dataset | AM-Softmax | Accuracy: 61.80 |
| face-verification-on-trillion-pairs-dataset | AM-Softmax | Accuracy: 61.61 |