
摘要
近年来,深度学习在先进神经网络结构和大规模人工标注数据集的帮助下取得了巨大成功。然而,准确高效地标注大规模数据集往往成本高昂且难度较大,尤其是在需要细粒度标签的专业领域中。在这种情况下,粗粒度标签更容易获得,因为它们不需要专家知识。本文提出了一种对比学习方法,称为掩码对比学习($\textbf{MaskCon}$),以解决这一尚未充分研究的问题设定,即利用粗粒度标签的数据集来解决细粒度标签问题。具体而言,在对比学习框架内,对于每个样本,我们的方法通过粗粒度标签与其他样本及该样本的另一增强视图进行对比生成软标签。与仅考虑样本增强为强正例的自监督对比学习以及仅考虑具有相同粗粒度标签的样本为强正例的监督对比学习不同,我们提出了基于样本距离并由粗粒度标签掩码的软标签。这使得我们能够同时利用样本间的关联关系和粗粒度标签。我们证明了该方法可以作为许多现有最先进技术的特例,并且它提供了对泛化误差更紧致的界。实验结果表明,在包括CIFAR10、CIFAR100、ImageNet-1K、Stanford Online Products和Stanford Cars196在内的多个数据集中,我们的方法显著优于当前最先进的技术。代码和注释可在https://github.com/MrChenFeng/MaskCon_CVPR2023获取。
代码仓库
MrChenFeng/MaskCon_CVPR2023
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| learning-with-coarse-labels-on-cifar100 | MaskCon | Recall@1: 65.52 Recall@10: 89.25 Recall@2: 74.46 Recall@5: 83.64 |
| learning-with-coarse-labels-on-imagenet32 | MaskCon | Recall@1: 19.08 Recall@10: 47.96 Recall@2: 26.21 Recall@5: 38.17 |
| learning-with-coarse-labels-on-stanford | MaskCon | Recall@1: 74.05 Recall@10: 87.96 Recall@2: 78.97 Recall@5: 84.48 |
| learning-with-coarse-labels-on-stanford-cars | MaskCon | Recall@1: 45.53 Recall@10: 84.36 Recall@2: 58.56 Recall@5: 74.36 |