辅助深度生成模型
本文提出了一种基于乐观的概率方法进行逐层训练DeepAutoEncoder的过程,可以提高深度架构训练的性能,实验结果表明使用比生成模型更丰富的推理模型可以有效地提高性能。
Dec, 2012
利用迭代方法的变分技术,基于生成模型,研发半监督学习的新算法,解决现代数据分析中处理大规模非标记数据集挑战。深度生成模型与贝叶斯推理结合,灵活、高效、可拓展,为半监督学习提供了有力支持。
Jun, 2014
本文介绍了一种基于深度生成模型的架构,该架构在训练过程中使用多层的潜在变量,并且在所有潜在变量和输出之间包括确定性路径,以及提供了一组更丰富的连接,这些连接在推理和生成计算之间实现了更有效的信息通信。我们在重构分布中引入了轻量级自回归模型以提高自然图像的性能。实验表明,我们的方法在标准图像建模基准测试中达到了最先进的性能,并且在没有标签信息的情况下可以暴露潜在的类结构,同时可以提供自然图像中被遮挡区域的令人信服的估计。
Dec, 2016
本文介绍了针对生成模型学习中GAN和VAEs的新方法,并阐述了GAN和VAEs的相似性和差异性,探讨了它们的后验推理和KL散度的最小化问题,并将VAEs的importance weighting方法应用到GAN的学习中,同时采用对抗性机制加强VAEs模型,实验证明了这些方法的普适性和有效性。
Jun, 2017
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
本文讨论了深度非监督学习中最大化证据下限(ELBO)的训练方法,并推导了输入与潜变量之间互信息的下限和上限,进而通过率失真曲线描述了压缩和重构准确性之间的平衡,并提出了一个新的方法来避免强大的随机解码器忽略它们的潜变量。
Nov, 2017
提出 VGrow 框架来学习深度生成模型,通过 $f$-divergence 进行梯度流,使用 logD-trick GAN 来作为新的目标函数评估不同的散度,结果表明 VGrow 可以生成高保真图像并且表现优异。
Jan, 2019
本文探讨了变分推断在学习生成模型和正则化变分自编码器中的作用,并提出了一种基于确定性自编码器目标函数的正则化方法,该方法与 $eta$-VAE 表现相似。
Jan, 2020
本文介绍了深度生成模型的各种技术,并进行了对比、解释和回顾,包括基于能量、变分自编码器、生成对抗网络、自回归模型、归一化流、许多混合方法。
Mar, 2021
对GANs和VAEs进行贝叶斯非参数方法的融合,使用Wasserstein和最大均值差异度量在损失函数中结合以学习潜在空间并生成多样且高质量的样本,实现在异常检测和数据增强等各种生成任务中卓越性能的新型模型,进一步通过在代码空间中引入额外的生成器来增强模型的能力,可用于各种应用的更强大的生成模型。
Aug, 2023