3 个月前

纯噪声拯救数据不足:通过在随机噪声图像上训练提升不平衡分类性能

纯噪声拯救数据不足:通过在随机噪声图像上训练提升不平衡分类性能

摘要

尽管在视觉识别任务上取得了显著进展,深度神经网络在训练数据稀缺或数据分布严重不均衡的情况下,仍难以实现良好的泛化能力,因而对现实世界中的样本极为脆弱。本文提出一种出人意料地简单却极为有效的方法,以缓解这一局限:利用纯噪声图像作为额外的训练数据。与常规的数据增强方法(如添加噪声或对抗性噪声)不同,我们提出了一种全新的视角——直接在纯随机噪声图像上进行训练。为此,我们设计了一种新型的分布感知路由批量归一化层(Distribution-Aware Routing Batch Normalization, DAR-BN),使网络能够在同一架构中同时训练自然图像与纯噪声图像,从而促进模型泛化并抑制过拟合。实验表明,该方法显著提升了长尾分布图像分类任务的性能,在多个主流长尾数据集上(包括CIFAR-10-LT、CIFAR-100-LT、ImageNet-LT、Places-LT和CelebA-5)均取得了当前最优结果。此外,该方法实现极为简单,可作为通用的数据增强工具(在现有增强策略基础上叠加使用),兼容任何训练流程,无需额外的数据生成或特殊训练步骤,因而保持了训练过程的高效性与快速性。

代码仓库

shiranzada/pure-noise
官方
GitHub 中提及

基准测试

基准方法指标
long-tail-learning-on-celeba-5OPeN (WideResNet-28-10)
Error Rate: 19.1
long-tail-learning-on-cifar-10-lt-r-100OPeN (WideResNet-28-10)
Error Rate: 13.9
long-tail-learning-on-cifar-10-lt-r-50OPeN (WideResNet-28-10)
Error Rate: 10.8
long-tail-learning-on-cifar-100-lt-r-100OPeN (WideResNet-28-10)
Error Rate: 45.8
long-tail-learning-on-cifar-100-lt-r-50OPeN (WideResNet-28-10)
Error Rate: 40.2
long-tail-learning-on-imagenet-ltOPeN (ResNeXt-50)
Top-1 Accuracy: 55.1
long-tail-learning-on-places-ltOPeN (ResNet-152)
Top-1 Accuracy: 40.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
纯噪声拯救数据不足:通过在随机噪声图像上训练提升不平衡分类性能 | 论文 | HyperAI超神经