3 个月前

用于多层生成器的联合隐空间EBM先验模型学习

用于多层生成器的联合隐空间EBM先验模型学习

摘要

本文研究了多层生成模型学习中的基础性问题。多层生成模型在生成器之上构建多层潜在变量作为先验模型,有助于学习复杂的数据分布并捕捉层次化表示。然而,这类先验模型通常通过假设非信息性(条件)高斯分布来建模潜在变量之间的层间关系,其表达能力受限。为解决这一问题并学习更具表达力的先验模型,本文提出一种基于能量的模型(Energy-Based Model, EBM),以多层生成器为骨干,在所有潜在变量层的联合潜在空间上构建先验。该联合潜在空间EBM先验模型通过分层能量项捕捉每一层内部的上下文关系,并实现跨层潜在变量的联合修正。我们设计了一种联合训练方案,基于最大似然估计(Maximum Likelihood Estimation, MLE),并引入马尔可夫链蒙特卡洛(Markov Chain Monte Carlo, MCMC)采样,分别对不同层的潜在变量的先验与后验分布进行采样。为提升推理与学习效率,我们进一步提出一种变分训练方案,利用推理模型(inference model)来近似代价高昂的后验MCMC采样过程,实现计算开销的摊销。实验结果表明,所学习的模型在生成高质量图像方面具有较强表达能力,并能有效捕捉层次化特征,从而提升异常检测性能。

基准测试

基准方法指标
image-generation-on-celeba-hq-256x256Joint-EBM
FID: 9.89

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于多层生成器的联合隐空间EBM先验模型学习 | 论文 | HyperAI超神经