该论文研究了深度生成模型在有效的无监督学习中的应用, 提出了 VGAN 模型, 通过最小化能量密度函数的负对数似然的变分下界, 使得模型能够用 Variational Distribution 进行采样, 从而可以更方便地训练模型。
Nov, 2016
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
本文介绍了针对生成模型学习中GAN和VAEs的新方法,并阐述了GAN和VAEs的相似性和差异性,探讨了它们的后验推理和KL散度的最小化问题,并将VAEs的importance weighting方法应用到GAN的学习中,同时采用对抗性机制加强VAEs模型,实验证明了这些方法的普适性和有效性。
Jun, 2017
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
提出了一种简单的方法来评估生成对抗网络中生成的图像质量,通过定义与真实图像在鉴别器中的嵌入分布相关的高斯似然函数,并基于此定义两个简单的度量方式,从而得出一种适用于各种GAN的生成图像适应度的简单度量标准,CIFAR-10上的实证结果证明了提出的度量和生成图像的质量之间的强相关性。
Jul, 2017
本文介绍了使用分布匹配传输映射来确保潜在空间操作保留先前分布并实现更高质量样本的方法。
Nov, 2017
本文揭示了Variational Autoencoders (VAEs)的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估VAE-GAN混合模型并分析类概率估计对分布学习的影响,得出VAE-GAN混合模型在可扩展性、评估和推理方面比VAE更加困难,无法提高GAN的生成质量。
Feb, 2018
本研究针对变分自编码器(VAEs)的效率和各种假设,提出了新的VAE增强方案,该方案不需要任何超参数或敏感调整,并且与多种GAN模型竞争时,能产生清晰的样本和稳定的FID分数。
Mar, 2019
生成对抗网络(GANs)可以生成高质量的样本,但不能提供样本周围的概率密度估计。本文通过最大化log-likelihood来建议改进分区函数的无偏估计方法,同时最大化生成器熵以提供更好的模式覆盖,利用一种新型的流网络——单向流网络来计算生成样本的密度,从而设计出分区函数的无偏估计方法,并在实验中验证了该方法的快速收敛性、与相似结构GANs相当的样本质量、成功避免过度拟合常见数据集以及产生平滑的低维潜在数据表示。
Jul, 2023
对GANs和VAEs进行贝叶斯非参数方法的融合,使用Wasserstein和最大均值差异度量在损失函数中结合以学习潜在空间并生成多样且高质量的样本,实现在异常检测和数据增强等各种生成任务中卓越性能的新型模型,进一步通过在代码空间中引入额外的生成器来增强模型的能力,可用于各种应用的更强大的生成模型。
Aug, 2023