
摘要
通过前向扩散链逐步将数据映射到噪声分布,基于扩散的生成模型通过推断反向扩散链来学习数据生成过程。然而,该方法速度缓慢且计算成本高昂,因为它需要大量的前向和反向步骤。为此,我们提出一种更快速、更经济的替代方案:并非将数据逐步添加噪声直至变为纯随机噪声,而是仅将其噪声化至一个我们能够可靠学习的隐含噪声数据分布。随后,我们从这一与噪声数据分布相似的隐含分布出发,仅用较少的反向步骤即可生成数据。我们进一步揭示,所提出的模型可被形式化为一种对抗性自编码器,其同时受到扩散过程与可学习隐式先验的驱动。实验结果表明,即使反向扩散步骤显著减少,所提出的截断式扩散概率模型在无条件图像生成和文本引导图像生成任务中,均能持续优于非截断模型,展现出更优的生成性能。
代码仓库
jegzheng/truncated-diffusion-probabilistic-models
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-generation-on-lsun-bedroom-256-x-256 | TDPM+ (TTrunc=99) | FID: 1.88 NFE: 100 |
| image-generation-on-lsun-churches-256-x-256 | TDPM+ (TTrunc=99) | FID: 3.98 NFE: 100 |
| text-to-image-generation-on-coco | TLDM | FID: 6.29 |
| text-to-image-generation-on-cub | TLDM | FID: 6.72 |