3 个月前

掩码事件建模:面向事件相机的自监督预训练

掩码事件建模:面向事件相机的自监督预训练

摘要

事件相机以低延迟、高时间分辨率和高动态范围异步捕捉亮度变化,然而事件数据的标注过程成本高昂且耗时,严重制约了深度学习方法在事件模态下的分类及其他语义任务中的应用。为降低对标注事件数据的依赖,我们提出了一种自监督框架——掩码事件建模(Masked Event Modeling, MEM)。该方法在未标注的事件数据上预训练神经网络,这些数据可来自任意事件相机的录制。随后,将预训练模型在下游任务上进行微调,显著提升了任务的准确率。例如,在N-ImageNet、N-Cars和N-Caltech101三个数据集上,我们的方法均达到了当前最优的分类性能,较此前工作显著提升了Top-1准确率。在真实世界事件数据上的测试表明,MEM的表现甚至优于基于监督学习的RGB图像预训练方法。此外,经MEM预训练的模型在标签效率方面表现出色,且在语义图像分割这一密集预测任务中具有良好的泛化能力。

代码仓库

tum-vision/mem
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
classification-on-n-carsMEM
Accuracy (%): 98.55
Architecture: Transformer
Representation: Event Histogram

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
掩码事件建模:面向事件相机的自监督预训练 | 论文 | HyperAI超神经