
摘要
高动态范围(HDR)成像技术能够更真实地还原现实世界的光照条件,而传统的低动态范围(LDR)成像在处理高动态范围图像时则难以准确呈现。然而,目前绝大多数图像内容仍仅以LDR形式存在。本文提出一种基于深度卷积神经网络(CNN)的全新方法,称为ExpandNet,用于从LDR内容生成HDR内容。ExpandNet以LDR图像为输入,以端到端的方式生成动态范围扩展的图像。该模型旨在重建因量化、截断、色调映射或伽马校正等过程而丢失的原始信号信息。重建所依赖的额外信息源自网络通过监督学习方式从HDR图像数据集中学习到的特征。该方法完全自动化且数据驱动,无需任何启发式规则或人工干预。ExpandNet采用多尺度网络结构,避免使用上采样层,从而提升图像质量。在多个量化指标下,该方法相较于现有的扩展/逆色调映射算子表现出优异性能,即使面对严重曝光不当的输入图像,仍能取得良好效果。
代码仓库
dmarnerides/hdr-expandnet
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| inverse-tone-mapping-on-msu-hdr-video | ExpNet | HDR-PSNR: 34.0555 HDR-SSIM: 0.9892 HDR-VQM: 0.1942 |
| inverse-tone-mapping-on-vds-dataset | ExpandNet | HDR-VDP-3: 6.19 PU21-PSNR: 17.42 PU21-SSIM: 0.3612 Reinhard'TMO-PSNR: 23.03 |