本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
本文介绍了针对生成模型学习中 GAN 和 VAEs 的新方法,并阐述了 GAN 和 VAEs 的相似性和差异性,探讨了它们的后验推理和 KL 散度的最小化问题,并将 VAEs 的 importance weighting 方法应用到 GAN 的学习中,同时采用对抗性机制加强 VAEs 模型,实验证明了这些方法的普适性和有效性。
本文介绍了生成对抗网络(GANs)的算法框架,将其与隐式生成模型的学习算法相联系,提出了基于密度比估计的方法并借此引导观察者更深层次地思考生成模型。
Oct, 2016
本文揭示了 Variational Autoencoders (VAEs) 的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估 VAE-GAN 混合模型并分析类概率估计对分布学习的影响,得出 VAE-GAN 混合模型在可扩展性、评估和推理方面比 VAE 更加困难,无法提高 GAN 的生成质量。
Feb, 2018
该论文研究了无监督学习中生成模型的训练方法,提出了一种在对抗网络与似然训练之间进行混合训练的方法,其中使用深度可逆变换来解决概率和逆变换之间的冲突,实现了更好的生成样本和更高的似然性评估。
Jan, 2019
本文提出了将生成式对抗网络(GANs)视为隐式模型的一种方法,基于生成器和判别器的相互作用弱化了显式的似然值评估,从而在有向无环图的结构模型中实现了贝叶斯后验推理和模型学习。
Dec, 2016
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
通过将 self-supervised feedback 引入到 GANs 的训练中,匹配多个随机变量元组的联合分布,以获得超出现有方法的更高应用性。
Jun, 2020
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了 GAN 在一组 H"older 类定义的积分概率度量下的收敛速度和 Wasserstein 距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN 能够自适应地学习低维结构或具有 H"older 密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了 GAN 的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021