
摘要
自监督图像学习的目标是通过无需语义标注的大规模图像训练集,借助预训练任务(pretext tasks)构建具有语义意义的图像表征。许多现有的预训练任务所生成的表征对图像变换具有协变性(covariance)。我们主张,理想的语义表征应具备对这些变换的不变性(invariance)。为此,我们提出了预训练不变表征学习(Pretext-Invariant Representation Learning, PIRL,发音为“pearl”),该方法基于预训练任务学习具有不变性的图像表征。我们采用一种广泛使用的预训练任务——拼图求解(jigsaw puzzle solving)来实现PIRL。实验结果表明,PIRL显著提升了所学图像表征的语义质量。在多个主流自监督学习基准测试中,PIRL取得了新的最优性能,达到了当前自监督图像学习的最先进水平。值得注意的是,尽管PIRL为无监督学习方法,其在目标检测任务中学习图像表征的能力仍优于传统的有监督预训练方法。综上所述,我们的研究结果充分展示了具备良好不变性特性的自监督图像表征学习的巨大潜力。
代码仓库
aniket03/pirl_pytorch
pytorch
GitHub 中提及
HobbitLong/PyContrast
pytorch
danielgordon10/vince
pytorch
GitHub 中提及
facebookresearch/vissl
pytorch
GitHub 中提及
akwasigroch/Pretext-Invariant-Representations
pytorch
GitHub 中提及
meanderingstream/semi_supervised
GitHub 中提及
kawshik8/DL-project
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| contrastive-learning-on-imagenet-1k | ResNet50 | ImageNet Top-1 Accuracy: 63.6 |
| self-supervised-image-classification-on | PIRL | Number of Params: 24M Top 1 Accuracy: 63.6% |
| semi-supervised-image-classification-on-2 | PIRL (ResNet-50) | Top 5 Accuracy: 83.8% |