3 个月前

对比分割:面向噪声标签学习的自监督预训练

对比分割:面向噪声标签学习的自监督预训练

摘要

学习带噪声标签(Learning with Noisy Labels, LNL)方法的成功在很大程度上依赖于一个“预热阶段”(warm-up stage),该阶段采用完整的(含噪声的)训练数据集进行标准的监督学习训练。本文中,我们识别出一个关键问题——“预热障碍”:标准的预热阶段难以训练出高质量的特征提取器,也无法有效避免对噪声标签的记忆。为此,我们提出了一种名为“对比分割”(Contrast to Divide, C2D)的简单框架,该框架通过自监督方式对特征提取器进行预训练,从而解决上述问题。自监督预训练显著提升了现有LNL方法的性能,大幅降低了预热阶段对噪声水平的敏感性,缩短了其持续时间,并提升了所提取特征的质量。C2D可与现有方法无缝集成,无需额外调整,即可实现显著的性能提升,尤其在高噪声场景下表现突出。例如,在CIFAR-100数据集上,当噪声比例高达90%时,C2D相较于此前的最先进方法,准确率提升超过27%。在真实场景下的噪声设置中,基于mini-WebVision训练的C2D在WebVision和ImageNet验证集上的Top-1准确率均比之前的方法高出3%。我们对C2D框架进行了深入分析,包括比较不同预训练策略的性能表现,并估算了结合半监督学习时LNL方法的理论性能上限。用于复现实验的代码已公开,地址为:https://github.com/ContrastToDivide/C2D

代码仓库

基准测试

基准方法指标
image-classification-on-cifar-10-with-noisyC2D (DivideMix with SimCLR, ResNet-18)
Accuracy (under 20% Sym. label noise): 96.23 ± 0.09
Accuracy (under 50% Sym. label noise): 95.15 ± 0.16
Accuracy (under 80% Sym. label noise): 94.30 ± 0.12
Accuracy (under 90% Sym. label noise): 93.42 ± 0.09
Accuracy (under 95% Sym. label noise): 87.72 ± 2.21
image-classification-on-cifar-10-with-noisyC2D (ELR+ with SimCLR, ResNet-34)
Accuracy (under 20% Sym. label noise): 96.74 ± 0.12
Accuracy (under 50% Sym. label noise): 95.55 ± 0.32
Accuracy (under 80% Sym. label noise): 93.11 ± 0.70
Accuracy (under 90% Sym. label noise): 89.30 ± 0.21
Accuracy (under 95% Sym. label noise): 80.21 ± 1.91
image-classification-on-clothing1mELR+ with C2D (ResNet-50)
Accuracy: 74.58 ± 0.15%
image-classification-on-mini-webvision-1-0DivideMix with C2D (ResNet-50)
ImageNet Top-1 Accuracy: 78.57 ± 0.37
ImageNet Top-5 Accuracy: 93.04 ± 0.10
Top-1 Accuracy: 79.42 ± 0.34
Top-5 Accuracy: 92.32 ± 0.33

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
对比分割:面向噪声标签学习的自监督预训练 | 论文 | HyperAI超神经