3 个月前

上下文自编码器用于自监督表示学习

上下文自编码器用于自监督表示学习

摘要

我们提出了一种新型的掩码图像建模(Masked Image Modeling, MIM)方法——上下文自编码器(Context Autoencoder, CAE),用于自监督表示预训练。该方法通过在编码表示空间中进行预测来预训练编码器。预训练任务包含两项:掩码表示预测(预测被掩码图像块的表示)和掩码图像块重建(重建被掩码的图像块)。CAE网络采用编码器-回归器-解码器架构:编码器以可见图像块作为输入;回归器基于可见图像块的表示以及可见与被掩码图像块的位置信息,预测被掩码图像块的表示,其目标是使预测的表示与编码器实际计算出的表示对齐;解码器则根据预测的编码表示重建被掩码的图像块。CAE的设计促使编码器(表示学习)与具体任务(掩码表示预测和掩码图像块重建)的解耦学习。实验证明,在编码表示空间中进行预测有助于提升表示学习的效果。我们在多个下游任务中验证了CAE的有效性,包括语义分割、目标检测、实例分割和图像分类,均取得了优于现有方法的迁移性能。代码将开源,地址为:https://github.com/Atten4Vis/CAE。

代码仓库

atten4vis/cae
官方
pytorch
GitHub 中提及
lxtGH/CAE
pytorch
GitHub 中提及
open-mmlab/mmselfsup
pytorch
GitHub 中提及

基准测试

基准方法指标
object-detection-on-coco-minivalCAE (ViT-L, Mask R-CNN, 1x schedule)
box AP: 54.5
self-supervised-image-classification-on-1CAE (ViT-L/16)
Number of Params: 307M
Top 1 Accuracy: 86.3%
semantic-segmentation-on-ade20kCAE (ViT-L, UperNet)
Validation mIoU: 54.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
上下文自编码器用于自监督表示学习 | 论文 | HyperAI超神经