3 个月前

2022年视觉Transformer:关于Tiny ImageNet的最新进展

2022年视觉Transformer:关于Tiny ImageNet的最新进展

摘要

近年来,图像Transformer模型取得了显著进展,其性能已大幅缩小与传统卷积神经网络(CNN)架构之间的差距。标准训练流程通常包括在大规模数据集(如ImageNet-21k)上进行预训练,随后在ImageNet-1k数据集上进行微调。微调完成后,研究者通常会评估模型在较小数据集(如CIFAR-10/100)上的迁移学习表现,但往往忽略了Tiny ImageNet这一基准数据集。本文对视觉Transformer在Tiny ImageNet上的性能进行了最新评估,涵盖Vision Transformer(ViT)、数据高效图像Transformer(DeiT)、图像Transformer中的类别注意力机制(CaiT)以及Swin Transformer等模型。实验结果表明,Swin Transformer在该数据集上取得了91.35%的验证准确率,超越了当前的最先进水平。相关代码已开源,可访问:https://github.com/ehuynh1106/TinyImageNet-Transformers。

代码仓库

ehuynh1106/TinyImageNet-Transformers
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-classification-on-tiny-imagenet-1Swin-L
Validation Acc: 91.35%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
2022年视觉Transformer:关于Tiny ImageNet的最新进展 | 论文 | HyperAI超神经