
摘要
基于深度神经网络(DNN)的帧插值技术——即根据两个连续帧生成中间帧——通常依赖于结构复杂、参数量巨大的模型架构,导致其难以在资源受限的系统(如移动设备)上部署。为此,我们提出了一种面向帧插值的压缩驱动网络设计方法(Compression-Driven Frame Interpolation, CDFI),该方法通过引入稀疏性诱导优化策略实现模型剪枝,显著减小模型规模,同时保持优异的性能表现。具体而言,我们首先对近期提出的AdaCoF模型进行压缩,结果表明,压缩10倍后的AdaCoF模型在性能上与原始模型相当;随后,我们进一步通过引入多分辨率变形模块(multi-resolution warping module),有效提升了多层级细节的视觉一致性,显著改善了插值质量。最终,相较于原始AdaCoF模型,我们的方法仅需其四分之一的模型规模,即可实现显著的性能提升。此外,所提出的模型在多种主流数据集上均展现出优于现有先进方法的综合表现。更重要的是,该压缩驱动的框架具有良好的通用性,可便捷地迁移至其他基于DNN的帧插值算法中。相关源代码已开源,地址为:https://github.com/tding1/CDFI。
代码仓库
tding1/CDFI
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-frame-interpolation-on-middlebury | CDFI | LPIPS: 0.007 PSNR: 37.14 SSIM: 0.966 |
| video-frame-interpolation-on-msu-video-frame | CDFI | LPIPS: 0.051 MS-SSIM: 0.926 PSNR: 26.99 SSIM: 0.908 VMAF: 61.72 |
| video-frame-interpolation-on-ucf101-1 | CDFI | LPIPS: 0.015 PSNR: 35.21 |
| video-frame-interpolation-on-vimeo90k | CDFI | LPIPS: 0.010 PSNR: 35.17 |