
摘要
本文研究了视觉变压器的效率问题,通过挖掘给定网络中的冗余计算来解决这一问题。近期的变压器架构在一系列计算机视觉任务中展现了其卓越性能的有效性。然而,与卷积神经网络类似,视觉变压器的巨大计算成本仍然是一个严重的问题。鉴于注意力机制逐层聚合不同的图像块(patches),我们提出了一种新颖的图像块瘦身方法,该方法采用自顶向下的范式逐步丢弃无用的图像块。首先,我们在最后一层识别出有效的图像块,然后利用这些有效图像块指导前一层的图像块选择过程。对于每一层,我们近似估计每个图像块对最终输出特征的影响,并移除那些影响较小的图像块。基准数据集上的实验结果表明,所提出的方法可以在不影响性能的情况下显著降低视觉变压器的计算成本。例如,在ImageNet数据集上,ViT-Ti模型的FLOPs可以减少超过45%,而仅导致0.2%的Top-1准确率下降。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| efficient-vits-on-imagenet-1k-with-deit-s | DPS-ViT | GFLOPs: 2.4 Top 1 Accuracy: 79.5 |
| efficient-vits-on-imagenet-1k-with-deit-s | PS-ViT | GFLOPs: 2.6 Top 1 Accuracy: 79.4 |
| efficient-vits-on-imagenet-1k-with-deit-t | PS-ViT | GFLOPs: 0.7 Top 1 Accuracy: 72.0 |
| efficient-vits-on-imagenet-1k-with-deit-t | DPS-ViT | GFLOPs: 0.6 Top 1 Accuracy: 72.1 |
| efficient-vits-on-imagenet-1k-with-lv-vit-s | DPS-LV-ViT-S | GFLOPs: 4.5 Top 1 Accuracy: 82.9 |
| efficient-vits-on-imagenet-1k-with-lv-vit-s | PS-LV-ViT-S | GFLOPs: 4.7 Top 1 Accuracy: 82.4 |