
摘要
视频插值通过在两个连续帧之间合成中间帧,提升视频序列的时间分辨率。本文提出一种基于双边运动估计的新型深度学习视频插值算法。首先,我们设计了双边运动网络,并引入双边代价体(bilateral cost volume),以实现对双向运动的精确估计。随后,通过近似双向运动,推导出一种新型的双边运动表示。接着,利用估计得到的双边运动对两帧输入图像进行几何变换(光流 warped)。然后,我们构建了动态滤波器生成网络,以生成动态融合滤波器。最后,利用动态融合滤波器将变换后的帧进行加权融合,生成中间帧。实验结果表明,所提出的算法在多个基准数据集上均优于当前最先进的视频插值方法。
代码仓库
JunHeum/BMBC
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-frame-interpolation-on-middlebury | BMBC | Interpolation Error: 4.479 |
| video-frame-interpolation-on-ucf101-1 | BMBC | PSNR: 35.15 SSIM: 0.9689 |
| video-frame-interpolation-on-vimeo90k | BMBC | PSNR: 35.01 SSIM: 0.9764 |