ChenHanting ; WangYunhe ; GuoTianyu ; XuChang ; DengYiping ; LiuZhenhua ; MaSiwei ; XuChunjing ; XuChao ; GaoWen

摘要
随着现代硬件计算能力的显著提升,基于大规模数据集预训练的深度学习模型(如BERT、GPT-3)在性能上已经超越了传统方法。这一重大进展主要归功于Transformer及其变体架构的表示能力。本文研究了低级计算机视觉任务(如去噪、超分辨率和除雨),并开发了一种新的预训练模型,即图像处理Transformer(IPT)。为了最大限度地挖掘Transformer的能力,我们提出利用著名的ImageNet基准数据集生成大量损坏的图像对。IPT模型在这类图像上通过多头和多尾进行训练。此外,引入了对比学习以更好地适应不同的图像处理任务。因此,经过微调后,预训练模型可以高效地应用于所需任务。仅使用一个预训练模型,IPT在多个低级基准测试中超越了当前最先进的方法。代码可在以下地址获取:https://github.com/huawei-noah/Pretrained-IPT 和 https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/IPT
代码仓库
huawei-noah/Pretrained-IPT
官方
pytorch
GitHub 中提及
dongyan007/Pretrained-IPT-main-master
pytorch
GitHub 中提及
yangyucheng000/IPT-3
mindspore
GitHub 中提及
Mind23-2/MindCode-3/tree/main/IPT
mindspore
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| color-image-denoising-on-cbsd68-sigma50 | IPT | PSNR: 29.39 |
| color-image-denoising-on-urban100-sigma50 | IPT | PSNR: 29.71 |
| image-super-resolution-on-bsd100-2x-upscaling | IPT | PSNR: 32.48 |
| image-super-resolution-on-set14-3x-upscaling | IPT | PSNR: 30.85 |
| image-super-resolution-on-urban100-3x | IPT | PSNR: 29.49 |
| single-image-deraining-on-rain100l | IPT | PSNR: 41.62 SSIM: 0.988 |