本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
通过先前训练好的 GAN 模型,将图像投影到潜在空间中以获取表示,我们可以在 MNIST 任务和 Omniglot 任务中成功地保留数字和字符的信息,这种方法可以应用于一次性学习。
Nov, 2016
本文综述了现有算法之间的联系,包括广泛使用的变分自编码器、以对抗方式学习的推断、运算符变分推断、基于生成式对抗网络的图像重建等,提出了新的算法框架,并基于密度比估计或去噪等方法展示了实际的推断算法。
Feb, 2017
提出了一种新颖的生成自编码器网络模型,能够高质量、高分辨率地学习编码和重建图像,并支持从编码器的潜在空间进行平滑的随机采样。
Jul, 2018
该论文研究了无监督学习中生成模型的训练方法,提出了一种在对抗网络与似然训练之间进行混合训练的方法,其中使用深度可逆变换来解决概率和逆变换之间的冲突,实现了更好的生成样本和更高的似然性评估。
Jan, 2019
研究深度生成模型的潜在空间几何结构及优化条件,通过实验提出限制方法,提高生成对抗网络的性能。
Jul, 2022
基于深度学习和生成对抗网络的逆散射问题研究,通过对多频散射电场幅度的准确和高效重构,提出了一个强大的方法,其中采用了对抗自编码器和密集层构成的逆神经网络框架,通过与正向神经网络的比较验证了结果的可靠性和提高了建模效率。
Feb, 2024
本文介绍了针对生成模型学习中 GAN 和 VAEs 的新方法,并阐述了 GAN 和 VAEs 的相似性和差异性,探讨了它们的后验推理和 KL 散度的最小化问题,并将 VAEs 的 importance weighting 方法应用到 GAN 的学习中,同时采用对抗性机制加强 VAEs 模型,实验证明了这些方法的普适性和有效性。
提出了一种新的 “不变编码生成式对抗网络”(IVE-GANs)框架,利用特定数据的不变特征进行逆向映射,使生成器可以涵盖更多数据模式并提升生成效果和表示能力,并在多个数据集上进行了验证。
Nov, 2017
本文提出了一种基于深度神经网络的变分自编码器,使用实值非体积保存变换来准确计算数据的条件似然,采用由少量中间层组成的强大条件耦合层来使其学习效果更好,在图像建模任务上有着不错的表现。