
摘要
在立体设置下,图像超分辨率(SR)和视差估计问题相互关联,每个问题的结果都能帮助解决另一个问题。不同视角之间的对应关系的有效利用可以提高超分辨率性能,而具有更丰富细节的高分辨率(HR)特征则有助于对应关系的估计。基于这一动机,我们提出了一种立体超分辨率和视差估计反馈网络(SSRDE-FNet),该网络在一个统一的框架中同时处理立体图像超分辨率和视差估计,并通过它们之间的相互作用进一步提升性能。具体而言,SSRDE-FNet由两个分别用于左视图和右视图的双递归子网络组成。除了在低分辨率(LR)空间中的跨视角信息利用外,超分辨率过程生成的高分辨率表示还被用于进行更高精度的高分辨率视差估计,从而聚合高分辨率特征以生成更精细的超分辨率结果。随后,所提出的高分辨率视差信息反馈(HRDIF)机制将高分辨率视差携带的信息传递回前几层,以进一步优化超分辨率图像重建。大量实验验证了SSRDE-FNet的有效性和先进性。
代码仓库
MIVRC/SSRDEFNet-PyTorch
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| stereo-image-super-resolution-on-flickr1024-1 | SSRDE-FNet | PSNR: 28.85 |
| stereo-image-super-resolution-on-flickr1024-2 | SSRDE-FNet | PSNR: 23.59 |
| stereo-image-super-resolution-on-kitti2012-2x-1 | SSRDE-FNet | PSNR: 31.23 |
| stereo-image-super-resolution-on-kitti2012-4x | SSRDE-FNet | PSNR: 26.70 |
| stereo-image-super-resolution-on-kitti2015-2x | SSRDE-FNet | PSNR: 30.90 |
| stereo-image-super-resolution-on-kitti2015-4x | SSRDE-FNet | PSNR: 26.43 |
| stereo-image-super-resolution-on-middlebury | SSRDE-FNet | PSNR: 29.38 |
| stereo-image-super-resolution-on-middlebury-1 | SSRDE-FNet | PSNR: 35.09 |