3 个月前

自监督学习中的前置任务不变表示

自监督学习中的前置任务不变表示

摘要

自监督图像学习的目标是通过无需语义标注的大规模图像训练集,借助预训练任务(pretext tasks)构建具有语义意义的图像表征。许多现有的预训练任务所生成的表征对图像变换具有协变性(covariance)。我们主张,理想的语义表征应具备对这些变换的不变性(invariance)。为此,我们提出了预训练不变表征学习(Pretext-Invariant Representation Learning, PIRL,发音为“pearl”),该方法基于预训练任务学习具有不变性的图像表征。我们采用一种广泛使用的预训练任务——拼图求解(jigsaw puzzle solving)来实现PIRL。实验结果表明,PIRL显著提升了所学图像表征的语义质量。在多个主流自监督学习基准测试中,PIRL取得了新的最优性能,达到了当前自监督图像学习的最先进水平。值得注意的是,尽管PIRL为无监督学习方法,其在目标检测任务中学习图像表征的能力仍优于传统的有监督预训练方法。综上所述,我们的研究结果充分展示了具备良好不变性特性的自监督图像表征学习的巨大潜力。

代码仓库

aniket03/pirl_pytorch
pytorch
GitHub 中提及
danielgordon10/vince
pytorch
GitHub 中提及
facebookresearch/vissl
pytorch
GitHub 中提及
kawshik8/DL-project
pytorch
GitHub 中提及

基准测试

基准方法指标
contrastive-learning-on-imagenet-1kResNet50
ImageNet Top-1 Accuracy: 63.6
self-supervised-image-classification-onPIRL
Number of Params: 24M
Top 1 Accuracy: 63.6%
semi-supervised-image-classification-on-2PIRL (ResNet-50)
Top 5 Accuracy: 83.8%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自监督学习中的前置任务不变表示 | 论文 | HyperAI超神经