
摘要
单张图像去雾是一项具有挑战性的任务,现有方法通常因合成训练数据与真实世界测试图像之间的域偏移(domain shift)而导致性能下降。为解决这一问题,本文提出一种结合未标注真实数据的新型图像去雾框架。首先,我们设计了一种解耦式图像去雾网络(DID-Net),该网络根据雾化过程的物理模型,将特征表示解耦为三个独立的分量图:潜在的无雾图像、透射率图以及全局大气光估计。DID-Net通过跨尺度逐步融合特征来预测这三个分量图,并采用独立的精炼网络对每个分量图进行进一步优化。随后,引入一种解耦一致性均值教师网络(DMT-Net),利用未标注的真实数据协同提升单张图像去雾性能。具体而言,在未标注的真实数据上,通过一致性损失约束学生网络与教师网络在各解耦分量的粗略预测与精炼结果之间保持一致。我们在新收集的数据集Haze4K以及两个广泛使用的去雾数据集(SOTS和HazeRD)上,以及在真实场景的雾化图像上,与13种当前最先进的去雾方法进行了对比实验。实验结果表明,所提方法在定量指标和定性效果上均显著优于现有方法。
代码仓库
liuye123321/DMT-Net
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-dehazing-on-haze4k | DMT-Net | PSNR: 28.53 SSIM: 0.96 |