3 个月前

超越自注意力:基于两层线性网络的外部注意力机制在视觉任务中的应用

超越自注意力:基于两层线性网络的外部注意力机制在视觉任务中的应用

摘要

注意力机制,尤其是自注意力机制,在视觉任务的深度特征表示中扮演着日益重要的角色。自注意力通过计算所有位置之间的成对相似性,对每个位置的特征进行加权求和,从而捕捉单个样本内部的长程依赖关系。然而,自注意力机制具有二次方时间复杂度,且忽略了不同样本之间的潜在相关性。为此,本文提出一种新颖的注意力机制——外部注意力(External Attention),其基于两个外部的、小型的、可学习的、共享的记忆模块实现。该机制仅需两个级联的线性层与两个归一化层即可轻松构建,能够方便地替代现有主流模型中的自注意力模块。外部注意力具有线性时间复杂度,并能隐式建模所有数据样本之间的相关性。为进一步提升性能,本文还将多头机制引入外部注意力,构建出一种全MLP架构——外部注意力MLP(EAMLP),用于图像分类任务。在图像分类、目标检测、语义分割、实例分割、图像生成以及点云分析等多个任务上的大量实验表明,所提方法在性能上可与自注意力机制及其多种变体相媲美甚至更优,同时显著降低了计算开销与内存占用。

基准测试

基准方法指标
image-classification-on-imagenetT2T-ViT-14
Hardware Burden:
Operations per network pass:
Top 1 Accuracy: 81.7%
semantic-segmentation-on-ade20kEANet (ResNet-101)
Validation mIoU: 45.33
semantic-segmentation-on-ade20k-valEANet (ResNet-101)
mIoU: 45.33
semantic-segmentation-on-cityscapes-valEANet
mIoU: 81.7%
semantic-segmentation-on-pascal-voc-2012EANet (ResNet-101)
Mean IoU: 84%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
超越自注意力:基于两层线性网络的外部注意力机制在视觉任务中的应用 | 论文 | HyperAI超神经