使用隐式分布的变分推断
该论文研究了深度生成模型在有效的无监督学习中的应用, 提出了 VGAN 模型, 通过最小化能量密度函数的负对数似然的变分下界, 使得模型能够用 Variational Distribution 进行采样, 从而可以更方便地训练模型。
Nov, 2016
本文提出了将生成式对抗网络(GANs)视为隐式模型的一种方法,基于生成器和判别器的相互作用弱化了显式的似然值评估,从而在有向无环图的结构模型中实现了贝叶斯后验推理和模型学习。
Dec, 2016
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
引入Adversarial Variational Optimization来解决计算机模拟器密度函数难以处理的问题,学习提议分布以最小化合成数据的边缘分布和实际数据经验分布之间的差异,适用于离散数据和连续数据的模拟器。
Jul, 2017
本文揭示了Variational Autoencoders (VAEs)的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估VAE-GAN混合模型并分析类概率估计对分布学习的影响,得出VAE-GAN混合模型在可扩展性、评估和推理方面比VAE更加困难,无法提高GAN的生成质量。
Feb, 2018
通过构建一种显式的概率模型,将沃瑟斯坦GANs与熵正则化视为基于变分下界的生成模型,从而使得GANs和VAEs之间建立了有理论支持的联系。同时,作者还在多个数据集上计算了GANs的似然统计量,验证了该理论结果。
Oct, 2018
介绍了Multi-Adversarial Variational autoEncoder Networks (MAVENs)网络结构,它是VAE-GAN网络的一个创新应用,在人工合成图像方面有很好的表现。
Jun, 2019
对GANs和VAEs进行贝叶斯非参数方法的融合,使用Wasserstein和最大均值差异度量在损失函数中结合以学习潜在空间并生成多样且高质量的样本,实现在异常检测和数据增强等各种生成任务中卓越性能的新型模型,进一步通过在代码空间中引入额外的生成器来增强模型的能力,可用于各种应用的更强大的生成模型。
Aug, 2023