4 个月前

自适应稀疏ViT:通过充分利用自注意力机制实现可学习的自适应标记裁剪

自适应稀疏ViT:通过充分利用自注意力机制实现可学习的自适应标记裁剪

摘要

视觉变换器(Vision Transformer, ViT)作为计算机视觉领域的新范式,展现了出色的性能,但同时也伴随着高昂的计算成本。图像标记修剪是ViT压缩的主要方法之一,原因在于其复杂度与标记数量呈二次关系,并且许多仅包含背景区域的标记对最终预测并无实质性贡献。现有的研究要么依赖额外模块来评估各个标记的重要性,要么为不同的输入实例实施固定的比率修剪策略。在本工作中,我们提出了一种具有最小成本的自适应稀疏标记修剪框架。具体而言,我们首先提出了一种低成本的注意力头重要性加权分类注意力评分机制。然后,插入可学习参数作为阈值,以区分有用标记和不重要的标记。通过比较标记注意力得分与阈值,我们可以分层次地丢弃无用标记,从而加速推理过程。这些可学习的阈值在预算感知训练中进行优化,以平衡准确性和复杂度,并针对不同的输入实例执行相应的修剪配置。大量实验验证了我们方法的有效性。我们的方法将DeiT-S的吞吐量提高了50%,同时仅导致Top-1准确率下降0.2%,实现了比以往方法更好的准确性和延迟之间的权衡。

代码仓库

cydia2018/as-vit
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
efficient-vits-on-imagenet-1k-with-deit-sAS-DeiT-S (50%)
GFLOPs: 2.3
Top 1 Accuracy: 78.7
efficient-vits-on-imagenet-1k-with-deit-sAS-DeiT-S (65%)
GFLOPs: 3.0
Top 1 Accuracy: 79.6
efficient-vits-on-imagenet-1k-with-lv-vit-sAS-LV-S (60%)
GFLOPs: 3.9
Top 1 Accuracy: 82.6
efficient-vits-on-imagenet-1k-with-lv-vit-sAS-LV-S (70%)
GFLOPs: 4.6
Top 1 Accuracy: 83.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自适应稀疏ViT:通过充分利用自注意力机制实现可学习的自适应标记裁剪 | 论文 | HyperAI超神经