该研究开发了一种新形式的变分自动编码器(VAE),它在两个(对称的)形式中考虑了数据和代码的联合分布。同时,它使用对称的KL散度最小化方法进行学习,并使用一种新的对抗性训练方法来加速学习。在多项实验中,该研究展示了在数个图像基准数据集上的最新数据重建和生成结果。
Nov, 2017
该论文介绍的方法通过密度比技巧来达到KL散度的隐式计算,在不模拟聚合后验的情况下,可以使用最优先验,从而在各种数据集上实现高密度估计性能。
Sep, 2018
该论文研究了变分自编码器(VAE)在学习可解释的表示和生成建模方面的出色表现,提供了对其良好性能的解释,阐明了该架构中解码器的局部正交性,从而促进重构和正交性之间的平衡。
Dec, 2018
本研究针对变分自编码器(VAEs)的效率和各种假设,提出了新的VAE增强方案,该方案不需要任何超参数或敏感调整,并且与多种GAN模型竞争时,能产生清晰的样本和稳定的FID分数。
Mar, 2019
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换VAEs中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
本文提出了一种新型的 Variational Autoencoder with Learned Latent Structure(VAELLS)模型,该模型融合了可学习的流形模型,使得先验分布与数据流形匹配,并允许定义潜在空间中的生成变换路径,同时尝试在已知潜在结构的情况下进行验证,并展示了该模型在现实世界数据集上的性能。
Jun, 2020
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
研究证明变分自编码器和其条件扩展在多个领域可以达到最新成果,小样本图像中具有低维曼诺尔性质的特殊数据,其复杂行为仍不为人所知晓,本文从数据分布的角度出发,通过实验证明变分自编码器的全局最小值可以学习到正确的曼诺尔维度,在这个前提下讨论了更普适的条件扩展以适应不同数据分布的情况。
Feb, 2023
本文介绍了一种新的变分自编码器(VAE)的重构项,它特别惩罚生成模糊图像的能力,同时仍然最大化建模分布下的ELBO。在三个不同的数据集上展示了该损失函数的潜力,优于VAE的几种最近提出的重建损失。
Apr, 2023
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023