3 个月前

输入扰动可降低扩散模型中的暴露偏差

输入扰动可降低扩散模型中的暴露偏差

摘要

去噪扩散概率模型(Denoising Diffusion Probabilistic Models, DDPM)在生成质量方面表现极为出色,但其漫长的采样过程带来了高昂的计算开销。本文观察到,长采样链还会导致误差累积现象,这一问题与自回归文本生成中的“暴露偏差”(exposure bias)问题具有相似性。具体而言,我们发现训练阶段与推理阶段之间存在差异:训练时模型依赖于真实样本(ground truth),而推理时则依赖于先前生成的结果。为缓解该问题,我们提出一种简单但高效的数据增强训练正则化方法,即对真实样本施加扰动,以模拟推理过程中预测误差的累积效应。实验结果表明,该方法在不损害生成样本的召回率(recall)与精确率(precision)的前提下,显著提升了生成样本的质量,同时大幅缩短了训练与推理时间。例如,在 CelebA 64×64 数据集上,我们取得了 1.27 的新最优 FID 分数,同时节省了 37.5% 的训练时间。相关代码已公开,地址为:https://github.com/forever208/DDPM-IP。

代码仓库

forever208/ddpm-ip
官方
pytorch
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
输入扰动可降低扩散模型中的暴露偏差 | 论文 | HyperAI超神经