
摘要
视频帧插值是视频处理研究中最具挑战性的任务之一。近年来,许多基于深度学习的研究被提出。大多数这些方法专注于寻找包含有用信息的位置,以利用其自身的帧扭曲操作来估计每个输出像素。然而,许多方法存在自由度(Degrees of Freedom, DoF)限制,无法处理现实世界视频中的复杂运动。为了解决这一问题,我们提出了一种新的扭曲模块——自适应流协作(Adaptive Collaboration of Flows, AdaCoF)。我们的方法为每个目标像素估计核权重和偏移向量,以合成输出帧。与其他方法相比,AdaCoF 是最通用的扭曲模块之一,并且涵盖了它们中的大多数作为其特殊情况。因此,它可以处理广泛复杂的运动域。为了进一步改进我们的框架并生成更加逼真的输出,我们引入了仅适用于视频帧插值任务的双帧对抗损失(dual-frame adversarial loss)。实验结果表明,我们的方法在固定训练集环境和 Middlebury 基准测试中均优于现有的最先进方法。
代码仓库
HyeongminLEE/AdaCoF-pytorch
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-frame-interpolation-on-msu-video-frame | AdaCoF_f | LPIPS: 0.058 MS-SSIM: 0.913 PSNR: 24.99 SSIM: 0.903 VMAF: 60.19 |
| video-frame-interpolation-on-msu-video-frame | AdaCoF | LPIPS: 0.692 MS-SSIM: 0.883 PSNR: 23.17 SSIM: 0.891 VMAF: 58.29 |
| video-frame-interpolation-on-x4k1000fps | AdaCoF | PSNR: 23.90 SSIM: 0.727 tOF: 6.89 |
| video-frame-interpolation-on-x4k1000fps | AdaCoF_f | PSNR: 25.81 SSIM: 0.772 tOF: 6.42 |