
摘要
数据增强方法是提升深度神经网络性能不可或缺的启发式手段,尤其在图像识别任务中表现突出。近年来,多项研究发现,通过搜索算法自动发现的数据增强策略优于人工设计的策略。这类方法通常在具有连续或离散参数的图像变换空间中采用黑箱搜索算法,但其搜索过程耗时较长,难以高效获取优质策略。本文提出一种可微分的策略搜索框架用于数据增强,显著提升了搜索效率。我们为若干具有离散参数的变换操作引入了近似梯度,并设计了可微分的操作选择机制。在训练目标上,我们最小化增强数据分布与原始数据分布之间的差异,该目标函数具有可微性。实验结果表明,所提出的Faster AutoAugment方法在保持性能不下降的前提下,实现了远快于先前方法的搜索速度。
代码仓库
moskomule/dda
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| data-augmentation-on-cifar-10 | Shake-Shake (26 2×96d) (Faster AA) | Percentage error: 2 |
| data-augmentation-on-cifar-10 | WideResNet-40-2 (Faster AA) | Percentage error: 3.7 |
| data-augmentation-on-cifar-10 | Shake-Shake (26 2×32d) (Faster AA) | Percentage error: 2.7 |
| data-augmentation-on-cifar-10 | Shake-Shake (26 2×112d) (Faster AA) | Percentage error: 2 |
| data-augmentation-on-cifar-10 | WideResNet-28-10 (Faster AA) | Percentage error: 2.6 |
| data-augmentation-on-imagenet | ResNet-50 (Faster AA) | Accuracy (%): 76.5 |