
摘要
在本研究中,我们提出了一种简单而有效的半监督学习方法,称为增强分布对齐(Augmented Distribution Alignment)。我们揭示了由于标记样本数量有限而在半监督学习中存在的一种重要采样偏差,这通常会导致标记数据和未标记数据之间的经验分布出现显著不匹配。为此,我们提出通过对齐标记数据和未标记数据的经验分布来缓解这种偏差。一方面,我们采用了对抗训练策略,以最小化标记数据和未标记数据之间的分布距离,这一策略受到了领域适应工作的启发。另一方面,为了应对标记数据样本量小的问题,我们还提出了一种简单的插值策略来生成伪训练样本。这两种策略可以轻松集成到现有的深度神经网络中。我们在基准SVHN和CIFAR10数据集上展示了所提方法的有效性。我们的代码可在以下网址获取:\url{https://github.com/qinenergy/adanet}。
代码仓库
qinenergy/adanet
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semi-supervised-image-classification-on-cifar | ADA-Net (ConvNet) | Percentage error: 8.72 |