
摘要
去噪扩散概率模型(Denoising Diffusion Probabilistic Models, DDPM)在生成质量方面表现极为出色,但其漫长的采样过程带来了高昂的计算开销。本文观察到,长采样链还会导致误差累积现象,这一问题与自回归文本生成中的“暴露偏差”(exposure bias)问题具有相似性。具体而言,我们发现训练阶段与推理阶段之间存在差异:训练时模型依赖于真实样本(ground truth),而推理时则依赖于先前生成的结果。为缓解该问题,我们提出一种简单但高效的数据增强训练正则化方法,即对真实样本施加扰动,以模拟推理过程中预测误差的累积效应。实验结果表明,该方法在不损害生成样本的召回率(recall)与精确率(precision)的前提下,显著提升了生成样本的质量,同时大幅缩短了训练与推理时间。例如,在 CelebA 64×64 数据集上,我们取得了 1.27 的新最优 FID 分数,同时节省了 37.5% 的训练时间。相关代码已公开,地址为:https://github.com/forever208/DDPM-IP。
代码仓库
forever208/ddpm-ip
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-generation-on-celeba-64x64 | DDPM-IP | FID: 1.27 |
| image-generation-on-ffhq-128-x-128 | DDPM-IP | FID: 2.98 |
| image-generation-on-imagenet-32x32 | DDPM-IP | FID: 2.66 |
| image-generation-on-lsun-tower-64x64 | DDPM-IP | FID: 2.60 |