
摘要
近期,半监督学习(Semi-Supervised Learning, SSL)在仅依赖少量标注数据的情况下,有效利用大量未标注数据方面展现出巨大潜力。本文表明,在训练过程中间歇性地完全忽略标签信息,持续整轮(epoch)进行训练,可在小样本场景下显著提升模型性能。具体而言,我们提出一种联合训练双任务的网络架构:主分类任务同时处理未标注数据与标注稀疏的数据,而辅助任务则在无任何标签的前提下,对数据进行聚类。与自监督学习中常见的手工设计预训练任务不同,我们的聚类阶段复用相同的分类网络结构与分类头,旨在缓解主任务的约束,同时在不发生过拟合的前提下,将标签信息有效传播至未标注样本。此外,在无监督学习阶段,我们引入图像旋转分类这一自监督技术,以增强训练的稳定性。实验结果表明,该方法可显著提升多种前沿半监督学习算法的性能,在多个标准半监督基准测试中均取得优异表现,例如在CIFAR-10上达到92.6%的准确率,在SVHN上达到96.9%的准确率,且每类仅使用4个标注样本。在极端低标签场景下(每类仅1、2或3个样本),性能提升尤为显著,并验证了本方法所学习到的特征具有更强的判别能力,能更有效地分离数据分布。
代码仓库
boazlern/SSClustering
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semi-supervised-image-classification-on-cifar-15 | Semi-MMDC | Percentage error: 28.1±5.5 |
| semi-supervised-image-classification-on-cifar-17 | Semi-MMDC | Accuracy (Test): 70.84±8.1 |
| semi-supervised-image-classification-on-cifar-6 | Semi-MMDC | Percentage error: 5.51±0.25 |
| semi-supervised-image-classification-on-cifar-7 | Semi-MMDC | Percentage error: 7.39±0.61 |
| semi-supervised-image-classification-on-stl-1 | Semi-MMDC | Accuracy: 95.22±0.29 |
| semi-supervised-image-classification-on-svhn-1 | Semi-MMDC | Accuracy: 97.7±0.03 |
| semi-supervised-image-classification-on-svhn-2 | Semi-MMDC | Percentage error: 3.09±0.54 |