3 个月前

基于事件的视频重建方法研究:基于Transformer的模型

基于事件的视频重建方法研究:基于Transformer的模型

摘要

事件相机通过检测时空亮度变化来输出事件,为图像传感器带来了高动态范围与低延迟的新范式。以往研究通过引入卷积神经网络(CNN)在基于事件的视频重建任务中取得了令人瞩目的性能。然而,卷积操作固有的局部性难以建模长程依赖关系,而长程依赖对众多视觉任务至关重要。为此,本文提出一种混合CNN-Transformer网络结构用于事件驱动的视频重建(ET-Net),该方法兼具CNN对局部细节的精细捕捉能力与Transformer对全局上下文的建模优势。此外,我们进一步设计了一种Token金字塔聚合(Token Pyramid Aggregation)策略,实现多尺度Token的融合,以在Token空间中有效关联内部与交叉的语义概念。实验结果表明,所提方法在多个真实世界事件数据集上均显著优于现有最先进方法。代码已开源,地址为:https://github.com/WarranWeng/ET-Net。

基准测试

基准方法指标
video-reconstruction-on-event-camera-datasetET-Net
LPIPS: 0.224
Mean Squared Error: 0.047
video-reconstruction-on-mvsecET-Net
LPIPS: 0.489
Mean Squared Error: 0.107

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于事件的视频重建方法研究:基于Transformer的模型 | 论文 | HyperAI超神经