带隐式最优先验的变分自编码器
本文研究变分自编码器(VAE)的先验分布和后验分布。首先,我们将VAE的学习分解为逐层密度估计,并认为灵活的先验分布有益于样本生成和推断。其次,我们分析了反自回归流的族群(inverse AF),并表明在进一步改进后,反自回归流可用作对任何复杂后验的通用逼近。我们提出了一种统一的方法来参数化VAE,而无需在潜在实空间中使用因子高斯分布。
Oct, 2017
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
本文探讨了变分推断在学习生成模型和正则化变分自编码器中的作用,并提出了一种基于确定性自编码器目标函数的正则化方法,该方法与 $eta$-VAE 表现相似。
Jan, 2020
该研究论文提出 Batch Normalized-VAE (BN-VAE) 方法可以避免 Variational Autoencoder(VAE)寻找“后验塌缩”(posterior collapse)的局部最优解,该方法不需要引入新的模型组件或修改目标,可有效地、高效地避免后验塌缩,尤其在语言建模、文本分类和对话生成等任务上表现优异,且与 VAE 训练时间几乎相同。
Apr, 2020
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高MNIST、CIFAR-10、CelebA 64和CelebA HQ 256数据集上的最先进VAE的生成性能。
Oct, 2020
通过在概率密度差异方面引入新的正则化方法,有效解决了 Variational autoencoders 中的 LATENT REPRESENTATION LEARNING 方面出现的后验崩溃和空洞问题。
Nov, 2022
该研究探讨了使用无香精变换来改进变分自编码器生成模型的表现,使用更具信息量和低方差的后验表示来确保更高质量的重建,并使用Wasserstein分布度量来替换KL散度以允许更快的后验分布,最后得到了一种竞争力强的确定性采样VAE,可在脚手架分数上提高性能,训练方差较低。
Jun, 2023
通过改进目标函数,提出了新的自动编码器模型AVAE,利用KDE来建模高维度下的边缘后验分布,通过多个基准数据集的实证评估验证了AVAE相对于SOTA方法的有效性。
Nov, 2023
本文通过将核密度估计应用于变分自动编码器 (VAEs),近似后验概率分布,推导出极大似然下界 (ELBO) 中 KL 散度的上界,展示了 Epanechnikov 核在最小化 KL 散度上界方面的优势。在MNIST、Fashion-MNIST、CIFAR-10和CelebA等基准数据集上的实验证明了 Epanechnikov 变分自动编码器 (EVAE) 在重建图像质量方面的卓越性能。
May, 2024