3 个月前

大规模半监督视觉Transformer

大规模半监督视觉Transformer

摘要

我们研究了视觉Transformer(ViT)的半监督学习(SSL),尽管ViT架构已被广泛应用于各类任务,但该方向仍属研究不足的领域。为应对这一挑战,我们提出了一种新的SSL流程,包含三个阶段:首先进行自/非监督预训练,随后进行监督微调,最后进行半监督微调。在半监督微调阶段,我们采用指数移动平均(EMA)教师框架(EMA-Teacher),而非当前流行的FixMatch方法,因为前者在训练半监督视觉Transformer时表现出更高的稳定性与更优的准确率。此外,我们提出了一种概率伪混合(probabilistic pseudo mixup)机制,用于对未标记样本及其伪标签进行插值,以增强正则化效果,这对于训练具有较弱归纳偏置的ViT模型尤为重要。我们所提出的该方法被命名为Semi-ViT,在半监督分类任务中表现与卷积神经网络(CNN)相当或更优。同时,Semi-ViT继承了ViT架构的可扩展性优势,能够轻松扩展至大规模模型,并随着模型规模增大而持续提升性能。例如,Semi-ViT-Huge仅使用1%的标签,就在ImageNet数据集上实现了高达80%的Top-1准确率,这一性能与使用100%标签的Inception-v4相当。

代码仓库

amazon-science/semi-vit
pytorch
GitHub 中提及

基准测试

基准方法指标
semi-supervised-image-classification-on-1Semi-ViT (ViT-Base)
Top 1 Accuracy: 71%
semi-supervised-image-classification-on-1Semi-ViT (ViT-Huge)
Top 1 Accuracy: 80%
Top 5 Accuracy: 93.1
semi-supervised-image-classification-on-1Semi-ViT (ViT-Large)
Top 1 Accuracy: 77.3%
semi-supervised-image-classification-on-2Semi-ViT (ViT-Large)
Top 1 Accuracy: 83.3%
semi-supervised-image-classification-on-2Semi-ViT (ViT-Small)
Top 1 Accuracy: 77.1%
semi-supervised-image-classification-on-2Semi-ViT (ViT-Base)
Top 1 Accuracy: 79.7%
semi-supervised-image-classification-on-2Semi-ViT (ViT-Huge)
Top 1 Accuracy: 84.3%
Top 5 Accuracy: 96.6%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供