3 个月前

面向长视频的端到端生成建模:基于内存高效双向Transformer的方法

面向长视频的端到端生成建模:基于内存高效双向Transformer的方法

摘要

自回归Transformer在视频生成任务中取得了显著成功。然而,由于自注意力机制具有二次时间复杂度,Transformer难以直接建模视频中的长期依赖关系,且其自回归生成过程固有地导致推理速度缓慢以及误差传播问题。本文提出了一种高效记忆的双向Transformer(Memory-efficient Bidirectional Transformer, MeBT),用于端到端地学习视频中的长期依赖关系,并实现快速推理。基于近期双向Transformer的进展,我们的方法能够并行地从部分观测到的视频片段中解码整个时空体。通过将可观测上下文的token投影到固定数量的隐状态token,并利用交叉注意力机制引导其恢复被遮蔽的token,所提出的Transformer在编码与解码阶段均实现了线性时间复杂度。得益于线性复杂度与双向建模的优势,我们的方法在生成中等长度视频时,在生成质量与速度方面均显著优于传统的自回归Transformer。相关视频与代码已公开,详见:https://sites.google.com/view/mebt-cvpr2023。

代码仓库

Ugness/MeBT
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
video-generation-on-ucf-101MeBT (128x128, unconditional)
FVD128: 968
FVD16: 438
Inception Score: 65.93

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
面向长视频的端到端生成建模:基于内存高效双向Transformer的方法 | 论文 | HyperAI超神经