
摘要
将单次曝光低动态范围(LDR)图像映射到高动态范围(HDR)被认为是图像到图像转换任务中最具挑战性的任务之一,主要是由于与曝光相关的缺失信息。本研究通过提出一种新颖的两阶段深度网络来应对单次拍摄LDR到HDR映射的挑战。值得注意的是,我们所提出的方法旨在在不知道硬件信息的情况下重建HDR图像,这些硬件信息包括相机响应函数(CRF)和曝光设置。因此,我们在第一阶段执行诸如去噪、曝光校正等图像增强任务。此外,我们的深度网络第二阶段从一组凸数据样本中学习色调映射和位扩展。定性和定量比较表明,所提出的方法在细微差异下可以超越现有的LDR到HDR方法。除此之外,我们还收集了一个包含不同相机系统的LDR图像数据集。使用我们收集的真实世界LDR图像进行评估的结果显示,所提出的方法可以在不产生任何视觉伪影的情况下重建合理的HDR图像。代码可用:https://github.com/sharif-apu/twostageHDR_NTIRE21。
代码仓库
xypu98/two-stage-HDR-video
pytorch
GitHub 中提及
sharif-apu/twostageHDR_NTIRE21
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| inverse-tone-mapping-on-msu-hdr-video | twostageHDR | HDR-PSNR: 31.6717 HDR-SSIM: 0.9884 HDR-VQM: 0.1350 |