3 个月前

VideoComposer:具有运动可控性的组合视频生成

VideoComposer:具有运动可控性的组合视频生成

摘要

追求可控性作为视觉内容生成的更高标准,已在可定制图像合成领域取得了显著进展。然而,由于时间动态变化的多样性以及跨帧时间一致性要求的严格性,实现可控视频合成仍面临巨大挑战。基于组合生成(compositional generation)的范式,本文提出 VideoComposer,使用户能够灵活地通过文本条件、空间条件,尤其是时间条件来组合生成视频。具体而言,针对视频数据的特性,我们引入压缩视频中的运动矢量(motion vector)作为显式的控制信号,以引导时间动态过程。此外,我们设计了一种时空条件编码器(Spatio-Temporal Condition Encoder, STC-encoder),作为统一接口,有效整合序列输入中的时空关系,使模型能够更充分地利用时间条件,从而显著提升帧间一致性。大量实验结果表明,VideoComposer能够在合成视频中同时控制空间与时间模式,支持多种输入形式,包括文本描述、草图序列、参考视频,甚至仅通过手工设计的运动轨迹即可实现精准控制。相关代码与模型将公开发布于 https://videocomposer.github.io。

代码仓库

ali-vilab/videocomposer
pytorch
GitHub 中提及
damo-vilab/videocomposer
pytorch
GitHub 中提及

基准测试

基准方法指标
text-to-video-generation-on-evalcrafter-textModelScope
Motion Quality: 53.09
Temporal Consistency: 54.46
Text-to-Video Alignment: 57.8
Total Score: 218
Visual Quality: 52.47
text-to-video-generation-on-msr-vttVideoComposer
CLIPSIM: 0.2932
FVD: 580

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
VideoComposer:具有运动可控性的组合视频生成 | 论文 | HyperAI超神经