3 个月前

自监督视觉Transformer训练的实证研究

自监督视觉Transformer训练的实证研究

摘要

本文并未提出一种新方法,而是针对计算机视觉领域近期取得显著进展背景下,一个简单但至关重要的基准方法展开研究:面向视觉Transformer(Vision Transformer, ViT)的自监督学习。尽管标准卷积网络的训练策略已高度成熟且稳健,但针对ViT的训练方法,尤其是自监督学习场景下的训练策略,仍处于初步构建阶段,训练过程也面临更大的挑战。在本研究中,我们回归基础,系统考察了若干关键训练组件对自监督ViT性能的影响。我们发现,训练不稳定性是导致模型精度下降的主要问题,且这一问题常被看似良好的实验结果所掩盖。我们揭示,这些表面表现良好的结果实则反映了部分训练失败,而当训练过程变得更加稳定时,性能可显著提升。我们以MoCo v3及其他多种自监督学习框架为基准,对ViT进行了全面的消融实验,涵盖多个维度。同时,本文也探讨了当前研究中已有的积极证据,以及仍面临的挑战与未解问题。我们期望本工作能为后续研究提供有价值的参考数据与实践经验。

代码仓库

Westlake-AI/openmixup
pytorch
GitHub 中提及
oliverrensu/sdmp
pytorch
GitHub 中提及
xiyue-wang/transpath
pytorch
GitHub 中提及
oneflow-inc/libai
GitHub 中提及
facebookresearch/moco-v3
官方
pytorch
GitHub 中提及
CupidJay/MoCov3-pytorch
pytorch
GitHub 中提及
open-mmlab/mmselfsup
pytorch
GitHub 中提及

基准测试

基准方法指标
self-supervised-image-classification-onMoCo v3 (ViT-BN-H)
Number of Params: 700M
Top 1 Accuracy: 79.1%
self-supervised-image-classification-onMoCo v3 (ViT-BN-L/7)
Number of Params: 304M
Top 1 Accuracy: 81.0%
self-supervised-image-classification-onMoCo v3 (ViT-L)
Number of Params: 307M
Top 1 Accuracy: 77.6%
self-supervised-image-classification-onMoCo v3 (ViT-H)
Number of Params: 632M
Top 1 Accuracy: 78.1%
self-supervised-image-classification-onMoCo v3 (ViT-B/16)
Number of Params: 86M
Top 1 Accuracy: 76.7%
self-supervised-image-classification-on-1MoCo v3 (ViT-B/16)
Number of Params: 86M
Top 1 Accuracy: 83.2%
self-supervised-image-classification-on-1MoCo v3 (ViT-L/16)
Number of Params: 304M
Top 1 Accuracy: 84.1%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自监督视觉Transformer训练的实证研究 | 论文 | HyperAI超神经