StoffregenTimo ; ScheerlinckCedric ; ScaramuzzaDavide ; DrummondTom ; BarnesNick ; KleemanLindsay ; MahonyRobert

摘要
事件相机是一种颠覆性的新型传感器,能够以无与伦比的低延迟报告异步的、逐像素亮度变化(称为“事件”)。这使得它们非常适合用于传统相机无法胜任的高速、高动态范围场景。近期的研究表明,使用卷积神经网络(CNN)进行基于事件的视频重建和光流计算可以取得令人印象深刻的结果。我们提出了一些改进训练数据的策略,这些策略在使用我们的方法重新训练现有的最先进(SOTA)视频重建网络时,性能提升了20-40%,而在光流网络中则提升了高达15%。评估基于事件的视频重建的一个挑战是现有数据集中缺乏高质量的真实图像。为了解决这一问题,我们介绍了一个新的高质量帧(HQF)数据集,该数据集包含来自DAVIS240C传感器的事件和真实帧,这些帧曝光良好且运动模糊最小。我们在HQF数据集以及多个现有的主要事件相机数据集上对我们的方法进行了评估。
代码仓库
TimoStoff/event_cnn_minimal
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| video-reconstruction-on-event-camera-dataset | E2VID+ | LPIPS: 0.236 Mean Squared Error: 0.070 |
| video-reconstruction-on-mvsec | E2VID+ | LPIPS: 0.514 Mean Squared Error: 0.132 |