
摘要
视频帧插值旨在在原始帧之间合成不存在的帧。尽管最近的深度卷积神经网络取得了显著进展,但由于大物体运动或遮挡,插值质量常常会下降。在这项工作中,我们提出了一种视频帧插值方法,通过探索深度信息显式检测遮挡。具体而言,我们开发了一个深度感知流投影层(depth-aware flow projection layer),用于合成中间光流,优先采样较近的物体而非较远的物体。此外,我们学习了层次特征以从邻近像素中收集上下文信息。所提出的模型根据光流和局部插值核对输入帧、深度图和上下文特征进行变形,以合成输出帧。我们的模型紧凑、高效且完全可微分。定量和定性结果表明,所提出的模型在多种数据集上优于现有的最先进的帧插值方法。
代码仓库
BurguerJohn/Dain-App
pytorch
MohamedAliRashad/Crystal
pytorch
nihui/dain-ncnn-vulkan
GitHub 中提及
jcao216/DAIN_Modified
pytorch
GitHub 中提及
baowenbo/DAIN
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-frame-interpolation-on-middlebury | DAIN | Interpolation Error: 4.86 |
| video-frame-interpolation-on-ucf101-1 | DAIN | PSNR: 34.99 SSIM: 0.9683 |
| video-frame-interpolation-on-vimeo90k | DAIN | PSNR: 34.71 SSIM: 0.9756 |
| video-frame-interpolation-on-vimeo90k | DAIN | PSNR: 34.71 |
| video-frame-interpolation-on-x4k1000fps | DAIN_f | PSNR: 27.52 SSIM: 0.821 tOF: 3.47 |
| video-frame-interpolation-on-x4k1000fps | DAIN | PSNR: 26.78 SSIM: 0.807 tOF: 3.83 |