
摘要
我们提出了一种名为ViDeNN的卷积神经网络(CNN),用于在无需事先了解噪声分布的情况下进行视频去噪(盲去噪)。该CNN架构结合了空间滤波和时间滤波,首先学习如何对帧进行空间去噪,同时学习如何结合其时间信息,以处理物体运动、亮度变化、低光条件和时间不一致性。为了证明用于训练CNN的数据的重要性,我们为此创建了一个专门针对低光条件的数据集。我们在常见的基准测试数据集和自收集的数据上对ViDeNN进行了测试,取得了与现有最先进方法相当的良好结果。
代码仓库
clausmichele/ViDeNN
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| color-image-denoising-on-cbsd68-sigma10 | Spatial-CNN | PSNR: 35.92 |
| color-image-denoising-on-cbsd68-sigma15 | Spatial-CNN | PSNR: 33.66 |
| color-image-denoising-on-cbsd68-sigma25 | Spatial-CNN | PSNR: 30.99 |
| color-image-denoising-on-cbsd68-sigma35 | Spatial-CNN | PSNR: 29.34 |
| color-image-denoising-on-cbsd68-sigma5 | Spatial-CNN | PSNR: 39.73 |
| color-image-denoising-on-cbsd68-sigma50 | Spatial-CNN | PSNR: 27.63 |