
摘要
数据增强是提高深度学习模型泛化能力的重要技术。最近,AutoAugment 被提出作为一种从数据集中自动搜索增强策略的算法,并在许多图像识别任务上显著提升了性能。然而,其搜索方法即使对于相对较小的数据集也需要数千个 GPU 小时。本文中,我们提出了一种称为 Fast AutoAugment 的算法,该算法通过基于密度匹配的更高效搜索策略来寻找有效的增强策略。与 AutoAugment 相比,所提出的算法将搜索时间缩短了几个数量级,同时在包括 CIFAR-10、CIFAR-100、SVHN 和 ImageNet 在内的多种模型和数据集上的图像识别任务中实现了相当的性能。
代码仓库
songyadong106/111
pytorch
GitHub 中提及
tgilewicz/uniformaugment
pytorch
GitHub 中提及
cfld/amdim
pytorch
GitHub 中提及
Ching-Chen-Wang/EfficientNet-eLite
pytorch
GitHub 中提及
junkwhinger/fastautoaugment_jsh
pytorch
GitHub 中提及
ildoonet/pytorch-randaugment
pytorch
GitHub 中提及
kakaobrain/fast-autoaugment
官方
pytorch
GitHub 中提及
zhanghang1989/fast-autoaug-torch
pytorch
GitHub 中提及
philip-bachman/amdim-public
pytorch
GitHub 中提及
kakaobrain/autoclint
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| data-augmentation-on-imagenet | ResNet-50 (Fast AA) | Accuracy (%): 77.6 |
| data-augmentation-on-imagenet | ResNet-200 (Fast AA) | Accuracy (%): 80.6 |
| image-classification-on-cifar-10 | PyramidNet+ShakeDrop (Fast AA) | Percentage correct: 98.3 |
| image-classification-on-cifar-100 | PyramidNet+ShakeDrop (Fast AA) | Percentage correct: 88.3 |
| image-classification-on-imagenet | ResNet-200 (Fast AA) | Top 1 Accuracy: 80.6% |
| image-classification-on-imagenet | ResNet-50 (Fast AA) | Top 1 Accuracy: 77.6% |
| image-classification-on-svhn | Wide-ResNet-28-10 (Fast AA) | Percentage error: 1.1 |