
摘要
少样本学习是一项具有挑战性的任务,因为用于识别未见过类别(unseen class)的实例数量非常有限。缓解这一问题的一种方法是通过在类似任务上进行元学习(meta-learning),从而获得强大的归纳偏置(inductive bias)。在本文中,我们展示了这种归纳偏置可以从一组未标记图像中学习,并作为已见和未见类别的可迁移表示(transferable representations)加以实现。具体而言,我们提出了一种基于部件的自监督表示学习方案,通过最大化图像与其判别性部件(discriminative part)之间的相似度来学习可迁移表示。为了缓解因数据稀缺导致的少样本分类中的过拟合问题,我们进一步提出了一种部件增强策略,即从基础数据集中检索额外的图像以增加训练样本。我们在 miniImageNet 和 tieredImageNet 基准数据集上进行了系统研究。值得注意的是,我们的方法取得了令人印象深刻的结果,在 5 类 1 次和 5 类 5 次设置下分别超过了之前最佳无监督方法 7.74% 和 9.24%,其性能与最先进的有监督方法相当。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| unsupervised-few-shot-image-classification-on | PDA-Net | Accuracy: 63.84 |
| unsupervised-few-shot-image-classification-on-1 | PDA-Net | Accuracy: 83.11 |
| unsupervised-few-shot-image-classification-on-2 | PDA-Net | Accuracy: 69.01 |
| unsupervised-few-shot-image-classification-on-3 | PDA-Net | Accuracy: 84.20 |