
摘要
深度神经网络在学习训练数据方面表现出色,但在评估略有不同的测试样本时,往往会产生错误且自信的预测。这包括分布偏移、异常值和对抗性样本。为了解决这些问题,我们提出了一种简单的正则化方法——流形混合(Manifold Mixup),该方法鼓励神经网络对隐藏表示的插值进行更加谨慎的预测。流形混合利用语义插值作为额外的训练信号,从而获得在多个表示层次上具有更平滑决策边界的神经网络。因此,使用流形混合训练的神经网络在学习类别表示时减少了方差方向的数量。我们在理想条件下证明了这种平坦化的理论依据,并在实际情况下进行了验证,同时将其与信息论和泛化方面的先前工作联系起来。尽管流形混合不会显著增加计算量,并且只需几行代码即可实现,但它在监督学习、对单步对抗攻击的鲁棒性和测试对数似然性方面均提升了强大的基线模型性能。
代码仓库
rahulmadanahalli/manifold_mixup
tf
GitHub 中提及
chris-tng/semi-supervised-nlp
pytorch
GitHub 中提及
yhu01/PT-MAP
pytorch
GitHub 中提及
shivamsaboo17/ManifoldMixup
pytorch
LachezarPetrov/manifold_mixup_vgg16
tf
GitHub 中提及
Westlake-AI/openmixup
pytorch
GitHub 中提及
allenhaozhu/ease
pytorch
GitHub 中提及
makeyourownmaker/mixup
pytorch
GitHub 中提及
erichson/noisy_mixup
pytorch
GitHub 中提及
DaikiTanak/manifold_mixup
pytorch
GitHub 中提及
vikasverma1077/manifold_mixup
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-classification-on-cifar-10 | Manifold Mixup WRN 28-10 | Percentage correct: 97.45 |
| image-classification-on-cifar-100 | Manifold Mixup | Percentage correct: 81.96 |
| image-classification-on-omnibenchmark | Manifold | Average Top-1 Accuracy: 31.6 |