
摘要
人体运动生成是生成式计算机视觉领域的重要研究方向,然而实现长序列且高效的运动生成仍面临诸多挑战。近年来,状态空间模型(State Space Models, SSMs)——尤其是Mamba模型——在长序列建模方面展现出巨大潜力,其高效且面向硬件优化的设计为构建运动生成模型提供了极具前景的技术路径。然而,将SSMs应用于运动生成仍面临诸多困难,主要原因在于缺乏专门针对运动序列建模的架构设计。为解决上述问题,本文提出Motion Mamba,这是一种简洁而高效的创新方法,首次实现了基于SSMs的运动生成模型。具体而言,我们设计了分层时序Mamba(Hierarchical Temporal Mamba, HTM)模块,通过在对称U-Net架构中集成不同数量的独立SSM模块,以有效处理时序数据,从而在帧间保持运动的一致性。同时,我们引入双向空间Mamba(Bidirectional Spatial Mamba, BSM)模块,对潜在姿态进行双向建模,以提升时间窗口内运动生成的准确性。实验结果表明,与此前最优的基于扩散模型的方法相比,本方法在HumanML3D和KIT-ML数据集上实现了最高达50%的FID指标提升,且推理速度提升最高达4倍,充分展现了其在高质量长序列运动建模与实时人体运动生成方面的强大能力。项目主页详见:https://steve-zeyu-zhang.github.io/MotionMamba/
代码仓库
steve-zeyu-zhang/MotionMamba
官方
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| motion-synthesis-on-humanml3d | Motion Mamba | Diversity: 9.871 FID: 0.281 Multimodality: 2.294 R Precision Top3: 0.792 |