3 个月前

极化自注意力:面向高质量像素级回归

极化自注意力:面向高质量像素级回归

摘要

像素级回归是细粒度计算机视觉任务中最常见的问题之一,例如关键点热图估计和分割掩码生成。这类回归任务极具挑战性,主要在于需在较低计算开销的前提下,对高分辨率输入/输出建模长程依赖关系,以准确捕捉高度非线性的像素级语义信息。尽管深度卷积神经网络(DCNNs)中的注意力机制已广泛用于增强长程依赖建模,但诸如非局部块(Nonlocal blocks)等针对元素的注意力机制通常结构复杂且对噪声敏感;而大多数简化的注意力混合结构则倾向于在多种任务类型之间寻求折中方案。本文提出一种新型的极化自注意力(Polarized Self-Attention, PSA)模块,通过两项关键设计显著提升像素级回归的质量:(1)极化滤波(Polarized Filtering):在通道注意力与空间注意力的计算过程中,分别保持高内部分辨率,同时将输入张量沿对应维度完全压缩(坍缩),从而实现高效且精细的特征建模;(2)增强机制(Enhancement):引入直接适配典型细粒度回归输出分布的非线性结构,例如二维高斯分布(用于关键点热图)或二维二项分布(用于二值分割掩码)。实验表明,PSA模块在通道仅分支与空间仅分支中已充分挖掘其表示能力,因此其串行与并行结构之间的性能差异极小。在二维姿态估计与语义分割基准测试中,PSA显著提升了标准基线模型2–4个百分点,同时将当前最先进方法的性能进一步提升了1–2个百分点。

基准测试

基准方法指标
keypoint-detection-on-cocoUDP-Pose-PSA(384x288)
Validation AP: 79.5
pose-estimation-on-coco-test-devUDP-Pose-PSA(384x288)
AP: 79.5
AP50: 93.6
AP75: 85.9
APL: 84.3
APM: 76.3
AR: 81.9
pose-estimation-on-coco-test-devUDP-Pose-PSA(256x192)
AP: 78.9
AP50: 93.6
AP75: 85.8
APL: 83.6
APM: 76.1
AR: 81.4
semantic-segmentation-on-cityscapes-valHRNetV2-OCR+PSA
mIoU: 86.93

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
极化自注意力:面向高质量像素级回归 | 论文 | HyperAI超神经