3 个月前

HMANet:用于图像超分辨率的混合多轴聚合网络

HMANet:用于图像超分辨率的混合多轴聚合网络

摘要

基于Transformer的方法在超分辨率视觉任务中表现出色,性能已超越传统的卷积神经网络。然而,现有方法通常将自注意力计算限制在非重叠窗口内,以降低计算开销。这一限制导致基于Transformer的网络只能利用有限空间范围内的输入信息,从而制约了其表达能力。为此,本文提出一种新型的混合多轴聚合网络(Hybrid Multi-Axis Aggregation network, HMA),旨在更充分地挖掘特征的潜在信息。HMA由堆叠的残差混合Transformer块(Residual Hybrid Transformer Block, RHTB)和网格注意力块(Grid Attention Block, GAB)构成。一方面,RHTB通过融合通道注意力与自注意力机制,增强非局部特征融合能力,从而生成更具视觉吸引力的输出结果;另一方面,GAB用于跨域信息交互,能够联合建模相似特征,扩展模型的感受野。在超分辨率任务的训练阶段,本文设计了一种新颖的预训练策略,进一步提升模型的表征能力,并通过大量实验验证了所提方法的有效性。实验结果表明,HMA在基准数据集上的表现优于当前最先进的方法。相关代码与模型已开源,地址为:https://github.com/korouuuuu/HMA。

代码仓库

korouuuuu/hma
官方
pytorch

基准测试

基准方法指标
image-super-resolution-on-bsd100-2x-upscalingHMA†
PSNR: 32.79
SSIM: 0.9071
image-super-resolution-on-bsd100-3x-upscalingHMA†
PSNR: 29.66
SSIM: 0.8196
image-super-resolution-on-bsd100-4x-upscalingHMA†
PSNR: 28.13
SSIM: 0.7562
image-super-resolution-on-manga109-2xHMA†
PSNR: 41.13
SSIM: 0.9836
image-super-resolution-on-manga109-3xHMA†
PSNR: 36.10
SSIM: 0.9580
image-super-resolution-on-manga109-4xHMA†
PSNR: 33.19
SSIM: 0.9344
image-super-resolution-on-set14-2x-upscalingHMA†
PSNR: 35.33
SSIM: 0.9297
image-super-resolution-on-set14-3x-upscalingHMA†
PSNR: 31.47
SSIM: 0.8585
image-super-resolution-on-set14-4x-upscalingHMA†
PSNR: 29.51
SSIM: 0.8019
image-super-resolution-on-set5-2x-upscalingHMA†
PSNR: 38.95
SSIM: 0.9649
image-super-resolution-on-set5-3x-upscalingHMA†
PSNR: 35.35
SSIM: 0.9347
image-super-resolution-on-set5-4x-upscalingHMA†
PSNR: 33.38
SSIM: 0.9089
image-super-resolution-on-urban100-2xHMA†
PSNR: 35.24
SSIM: 0.9513
image-super-resolution-on-urban100-3xHMA†
PSNR: 31.00
SSIM: 0.8984
image-super-resolution-on-urban100-4xHMA†
PSNR: 28.69
SSIM: 0.8512

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
HMANet:用于图像超分辨率的混合多轴聚合网络 | 论文 | HyperAI超神经