在变分自动编码器中匹配聚合后验概率
本文研究变分自编码器(VAE)的先验分布和后验分布。首先,我们将VAE的学习分解为逐层密度估计,并认为灵活的先验分布有益于样本生成和推断。其次,我们分析了反自回归流的族群(inverse AF),并表明在进一步改进后,反自回归流可用作对任何复杂后验的通用逼近。我们提出了一种统一的方法来参数化VAE,而无需在潜在实空间中使用因子高斯分布。
Oct, 2017
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
本文研究利用学习先验知识来提高变分推断的效果,证明了在所有后验分布不能满足高斯先验的情况下,学习先验知识是必要且有效的。使用深层次的VAE来学习真实NVP先验,并仅使用一个潜在变量,我们证明了该方法对测试集对数似然性能优越,胜过以往许多具有复杂层次结构的VAE架构。
May, 2019
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高MNIST、CIFAR-10、CelebA 64和CelebA HQ 256数据集上的最先进VAE的生成性能。
Oct, 2020
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文提出了用于处理异构数据的异构纵向变分自编码器,该模型通过建立生成模型和推断网络实现了高维数据的有效推断和处理,并使用连续、计数、分类和序数数据的似然模型来处理缺失值和实现预测。通过模拟和临床数据的实验验证了模型的有效性和预测精度。
Apr, 2022
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
通过提出一种正则化方法来提高变分自动编码器(VAEs)对于缺失数据的后验一致性,从而改善了缺失数据条件下的重构质量和利用潜在空间中的不确定性进行下游任务的绩效。
Oct, 2023