本文研究了变分自编码器 (VAE) 在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进 VAE 的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
Levenstein VAE 提出了一种简单易优化且避免后验坍塌的新目标,通过在生成的序列的每个时间步中根据 Levenshtein 距离预测最优延续来生成序列,从而产生比其他方法更具信息化的潜在表达。
Apr, 2020
通过引入对比度正则化(CR-VAE)方法,我们扩展了变分自编码器(VAE),使其能够最大化相似视觉输入表示之间的互信息,从而有效避免了后验崩溃现象。在一系列视觉数据集上的评估中,我们证明了 CR-VAE 在防止后验崩溃方面优于其他现有方法。
Sep, 2023
该研究提出了基于相关变量分布的 CVAEs 方法来学习高维数据的潜在表示。通过对无向相关图的所有最大有向无环子图的可计算较低限的平均值来解决相关先验带来的不可计算问题,证明了该方法在公共基准评级数据集的匹配和链接预测,以及合成数据集上的谱聚类中的有效性。
May, 2019
本文阐述了变分自编码器中潜变量的后验坍塌现象是由于潜在变量在生成模型中不可识别,提出了一类具有潜变量可识别性的深度生成模型,并证明了它们可以通过概率单射 Brenier maps 实现参数化,在合成和实际数据集上优于现有方法,从而解决了后验坍塌问题。
Jan, 2023
针对当前潜变量生成模型中的副坍缩现象,本论文提出了一种 delta-VAEs 方法,通过限制后验变分族的最小距离以确保潜变量的气质保留和编码,实现了变分下界的最优化,并在表示学习上显示了实用性,实现对文本和图像的建模以及在 CIFAR-10 上实现了最先进的对数似然。
本文针对变分自编码器中的后验崩溃问题,提出了一种基于反 Lipschitz 神经网络的方法,并在多个数值实验中证明了其有效性。
Apr, 2023
研究发现将先前仅仅被孤立考虑的两个经验法则相结合可以避免后验坍塌,提高了模型的性能表现。虽然该方法的 ELBO(证据下界)较差,但在保留隐变量的能力及对训练数据分布的建模方面表现更好,说明传统的 VAE 目标函数可能无法同时平衡表示学习和数据分布建模。
Sep, 2019
该论文通过对条件 VAEs 和层级 VAEs 进行理论分析,证明模型中后验崩溃的原因包括条件 VAEs 输入输出之间的相关性和层级 VAEs 学习编码器方差的影响,并在实验中验证了理论结果。
Jun, 2023
该论文研究通过因式分解先验分布的方法实现对观察变量和潜在变量的真实联合分布的识别,从而实现了对深度潜在变量模型的拆分,论文中提出了一种新的非线性独立成分分析框架,该框架同时适用于具有噪音、欠完备或离散观测的情况。
Jul, 2019