3 个月前

无监督表示的原型对比学习

无监督表示的原型对比学习

摘要

本文提出了一种名为原型对比学习(Prototypical Contrastive Learning, PCL)的无监督表示学习方法,旨在解决实例级对比学习的根本性局限。PCL不仅能够学习用于实例区分任务的低层特征,更重要的是,它能够将数据的语义结构隐式地编码到所学习的嵌入空间中。具体而言,我们引入原型(prototypes)作为隐变量,在期望最大化(Expectation-Maximization, EM)框架下辅助实现网络参数的最大似然估计。在迭代过程中,E步通过聚类确定原型的分布,M步则通过对比学习优化网络参数。为此,我们提出了ProtoNCE损失函数,作为对比学习中InfoNCE损失的泛化形式,该损失函数促使表示向其所属原型更紧密聚集。在多个基准测试中,PCL显著优于当前最先进的实例级对比学习方法,尤其在低资源迁移学习场景下展现出显著性能提升。相关代码与预训练模型已开源,可访问 https://github.com/salesforce/PCL。

代码仓库

salesforce/MoPro
pytorch
GitHub 中提及
salesforce/PCL
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
contrastive-learning-on-imagenet-1kResNet50 (v2)
ImageNet Top-1 Accuracy: 67.6
contrastive-learning-on-imagenet-1kResNet50
ImageNet Top-1 Accuracy: 61.5
self-supervised-image-classification-onPCL (ResNet-50)
Number of Params: 25M
Top 1 Accuracy: 65.9%
semi-supervised-image-classification-on-1PCL (ResNet-50)
Top 5 Accuracy: 75.6%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
无监督表示的原型对比学习 | 论文 | HyperAI超神经