非线性自编码器
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换VAEs中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
提出了一种用于图像生成的深度分层变分自编码器(NVAE),其使用深度分离卷积和批归一化。NVAE在MNIST、CIFAR-10、CelebA 64和CelebA HQ数据集上取得了最先进的结果,并为FFHQ提供了强大的基准。NVAE是最成功的VAE应用于自然图像,尺寸达到了256x256像素。
Jul, 2020
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高MNIST、CIFAR-10、CelebA 64和CelebA HQ 256数据集上的最先进VAE的生成性能。
Oct, 2020
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文介绍了一种新的变分自编码器(VAE)的重构项,它特别惩罚生成模糊图像的能力,同时仍然最大化建模分布下的ELBO。在三个不同的数据集上展示了该损失函数的潜力,优于VAE的几种最近提出的重建损失。
Apr, 2023
研究纵观了变分自编码器(VAEs)的训练方法,提出了一种基于熵的自适应方法来优化更紧的变分下界,该方法能适应潜在层次变量模型中复杂的后验几何结构,并获得更高的生成度量。
Aug, 2023