3 个月前

Axial-DeepLab:用于全景分割的独立轴向注意力机制

Axial-DeepLab:用于全景分割的独立轴向注意力机制

摘要

卷积操作通过利用局部性来提升效率,但其代价是无法捕捉长距离上下文信息。自注意力机制已被引入以增强卷积神经网络(CNN)的非局部交互能力。近期研究证明,通过将注意力限制在局部区域,可以堆叠自注意力层,构建出完全基于注意力的网络。本文尝试打破这一限制,通过将二维自注意力分解为两个一维自注意力,实现更高效的计算。该方法显著降低了计算复杂度,同时允许在更大甚至全局范围内执行注意力操作。此外,我们还提出了一种位置敏感的自注意力设计。结合上述两种策略,我们构建出一种新型网络模块——位置敏感轴向注意力层(position-sensitive axial-attention layer),该模块可被堆叠以构建用于图像分类和密集预测任务的轴向注意力模型。我们在四个大规模数据集上验证了所提模型的有效性。特别地,我们的模型在ImageNet上超越了所有现有的独立自注意力模型。在COCO test-dev上,Axial-DeepLab相比自底向上的最先进方法提升了2.8%的PQ指标;而该先进性能由我们参数量减少3.8倍、计算效率提升27倍的小型变体实现。此外,Axial-DeepLab在Mapillary Vistas和Cityscapes数据集上也取得了当前最优的实验结果。

代码仓库

基准测试

基准方法指标
panoptic-segmentation-on-cityscapes-testAxial-DeepLab-XL (Mapillary Vistas, multi-scale)
PQ: 66.6
panoptic-segmentation-on-cityscapes-valAxial-DeepLab-XL (Mapillary Vistas, multi-scale)
AP: 44.2
PQ: 68.5
mIoU: 84.6
panoptic-segmentation-on-coco-minivalAxial-DeepLab-L (multi-scale)
PQ: 43.9
panoptic-segmentation-on-coco-minivalAxial-DeepLab-L(multi-scale)
PQst: 36.8
PQth: 48.6
panoptic-segmentation-on-coco-minivalAxial-DeepLab-L (single-scale)
PQ: 43.4
PQst: 35.6
PQth: 48.5
panoptic-segmentation-on-coco-test-devAxial-DeepLab-L (multi-scale)
PQ: 44.2
PQst: 36.8
PQth: 49.2
panoptic-segmentation-on-coco-test-devAxial-DeepLab-L
PQ: 43.6
PQst: 35.6
PQth: 48.9
panoptic-segmentation-on-mapillary-valAxial-DeepLab-L (multi-scale)
PQ: 41.1
PQst: 51.3
PQth: 33.4
mIoU: 58.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Axial-DeepLab:用于全景分割的独立轴向注意力机制 | 论文 | HyperAI超神经