
摘要
少样本学习算法的目标是在仅有少量标记示例的帮助下,学习能够适应未见过类别的模型参数。最近的一种正则化技术——流形混合(Manifold Mixup)专注于学习一种通用表示,该表示对数据分布的小变化具有鲁棒性。由于少样本学习的目标与鲁棒表示学习密切相关,我们在这一问题设定中研究了流形混合技术。自监督学习是另一种仅利用数据固有结构来学习语义上有意义特征的技术。本研究探讨了在少样本任务中使用自监督和正则化技术来学习相关特征流形的作用。我们观察到,通过自监督技术增强的特征流形,再结合流形混合进行正则化,可以显著提高少样本学习的性能。我们展示了所提出的方法S2M2在标准少样本学习数据集如CIFAR-FS、CUB、mini-ImageNet和tiered-ImageNet上,比当前最先进的方法提高了3-8%的准确率。通过广泛的实验,我们证明了使用我们的方法学到的特征能够泛化到复杂的少样本评估任务、跨域场景,并且对数据分布的微小变化具有鲁棒性。
代码仓库
yhu01/PT-MAP
pytorch
GitHub 中提及
ShuoYang-1998/Few_Shot_Distribution_Calibration
pytorch
GitHub 中提及
allenhaozhu/ease
pytorch
GitHub 中提及
nupurkmr9/S2M2_fewshot
官方
pytorch
GitHub 中提及
ShuoYang-1998/ICLR2021-Oral_Distribution_Calibration
pytorch
GitHub 中提及
breakaway7/p3dc-shot
pytorch
GitHub 中提及
danielshalam/bpa
pytorch
GitHub 中提及
DanielShalam/SOT
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| few-shot-image-classification-on-cifar-fs-5 | S2M2R | Accuracy: 74.81 |
| few-shot-image-classification-on-cifar-fs-5-1 | S2M2R | Accuracy: 87.47 |
| few-shot-image-classification-on-cub-200-5 | S2M2R | Accuracy: 90.85 |
| few-shot-image-classification-on-cub-200-5-1 | S2M2R | Accuracy: 80.68 |
| few-shot-image-classification-on-mini-2 | S2M2R | Accuracy: 64.93 |
| few-shot-image-classification-on-mini-3 | S2M2R | Accuracy: 83.18 |
| few-shot-image-classification-on-tiered | S2M2R | Accuracy: 73.71 |
| few-shot-image-classification-on-tiered-1 | S2M2R | Accuracy: 88.59 |