3 个月前

用于语义分割的挤压-注意力网络

用于语义分割的挤压-注意力网络

摘要

近年来,注意力机制被引入分割网络,通过重点关注更具信息量的特征显著提升了模型的表征能力。然而,现有注意力机制往往忽视了语义分割中隐含的子任务,并受限于卷积核的网格结构。本文提出一种新型的挤压-注意力网络(Squeeze-and-Attention Network, SANet)架构,其核心是引入一种高效的挤压-注意力(Squeeze-and-Attention, SA)模块,以捕捉分割任务的两个关键特性:i)像素组注意力(pixel-group attention),ii)像素级预测(pixel-wise prediction)。具体而言,所提出的SA模块通过引入“注意力”卷积通道,在传统卷积基础上施加像素组注意力,从而以高效方式建模空间与通道之间的相互依赖关系。最终的分割结果通过融合SANet四个层级阶段的输出,整合多尺度上下文信息,实现更精确的像素级预测。在两个具有挑战性的公开数据集上的实验证明了所提SANet的有效性:在PASCAL VOC数据集上(未使用COCO预训练)达到83.2%的mIoU;在PASCAL Context数据集上取得54.4%的当前最优mIoU,验证了其先进性能。

基准测试

基准方法指标
semantic-segmentation-on-pascal-voc-2012SANet (pretraining on COCO dataset)
Mean IoU: 86.1%
semantic-segmentation-on-pascal-voc-2012SANet
Mean IoU: 83.2%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于语义分割的挤压-注意力网络 | 论文 | HyperAI超神经