对抗变分贝叶斯:统一变分自编码器和生成对抗网络
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
本文介绍了针对生成模型学习中 GAN 和 VAEs 的新方法,并阐述了 GAN 和 VAEs 的相似性和差异性,探讨了它们的后验推理和 KL 散度的最小化问题,并将 VAEs 的 importance weighting 方法应用到 GAN 的学习中,同时采用对抗性机制加强 VAEs 模型,实验证明了这些方法的普适性和有效性。
Jun, 2017
对 GANs 和 VAEs 进行贝叶斯非参数方法的融合,使用 Wasserstein 和最大均值差异度量在损失函数中结合以学习潜在空间并生成多样且高质量的样本,实现在异常检测和数据增强等各种生成任务中卓越性能的新型模型,进一步通过在代码空间中引入额外的生成器来增强模型的能力,可用于各种应用的更强大的生成模型。
Aug, 2023
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
我们提出了一种名为 AVAE 的新型对抗生成嵌入框架,该框架将 GAN 的高质量生成模型和 VAE 的后验分布学习器的优势相结合,用于半监督学习,并针对已有的问题进行改进。实践结果表明,我们的方法在半监督分类方面的表现优于现有的最先进模型。
May, 2019
介绍了 Multi-Adversarial Variational autoEncoder Networks (MAVENs) 网络结构,它是 VAE-GAN 网络的一个创新应用,在人工合成图像方面有很好的表现。
Jun, 2019
本文主要介绍了自动编码变分贝叶斯算法 (AEVB) 的理论及应用,阐明了其与经典的期望最大化算法 (EM) 之间的联系及其适用范围,同时详细介绍了重要概念如一致化 (amortization) 和参数重参数化技巧 (reparametrization trick),最后通过应用该算法到非深度和深度潜变量模型,并提供了 PyTorch 实现代码。
Aug, 2022
本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
本文揭示了 Variational Autoencoders (VAEs) 的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估 VAE-GAN 混合模型并分析类概率估计对分布学习的影响,得出 VAE-GAN 混合模型在可扩展性、评估和推理方面比 VAE 更加困难,无法提高 GAN 的生成质量。
Feb, 2018
本研究提出一种基于 VAE 的非线性概率模型,用于解决协作过滤问题,相对于现有的线性因子模型,具有更强的建模能力,并使用贝叶斯推断进行参数估计来得到更好的泛化性能。本方法在现有多个数据集上均取得了显著优异的性能表现,并对使用多项式分布作为似然函数进行了比较实验,分析了使用贝叶斯方法的优缺点及适用场景。
Feb, 2018