ED-VAE:变分自编码器中ELBO的熵分解
本篇研究提出了新的目标函数(InfoVAE)解决了现有训练标准带来的问题,大大提高了变分后验的质量,并使得潜在特征得到了有效利用,从而在多个性能指标上优于其他竞争方法。
Jun, 2017
研究发现将先前仅仅被孤立考虑的两个经验法则相结合可以避免后验坍塌,提高了模型的性能表现。虽然该方法的ELBO(证据下界)较差,但在保留隐变量的能力及对训练数据分布的建模方面表现更好,说明传统的VAE目标函数可能无法同时平衡表示学习和数据分布建模。
Sep, 2019
本文通过对线性变分自编码器和概率PCA之间的直接对应关系进行分析,提出了有关后验崩溃的简单而直观的解释。从计算角度出发证明了线性VAE的ELBO目标不会引入附加的虚假局部极值,进一步证明了使用确切变分推理培训线性VAE可以恢复对应于主成分方向的全局最大值。同时,我们的线性分析对于高容量的非线性VAEs具有预测性,并有助于解释观察噪声,局部最大值和后验崩溃之间的关系。
Nov, 2019
本研究分析了 Variational Autoencoders 的近似误差,探讨了该误差的多种可能性并找到了其一致子集。重要的是,此子集无法通过考虑更深的编码器/解码器网络进行扩大,也无法降低相应误差。
Feb, 2021
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文主要介绍了自动编码变分贝叶斯算法(AEVB)的理论及应用,阐明了其与经典的期望最大化算法(EM)之间的联系及其适用范围,同时详细介绍了重要概念如一致化(amortization)和参数重参数化技巧(reparametrization trick),最后通过应用该算法到非深度和深度潜变量模型,并提供了PyTorch实现代码。
Aug, 2022
通过在概率密度差异方面引入新的正则化方法,有效解决了 Variational autoencoders 中的 LATENT REPRESENTATION LEARNING 方面出现的后验崩溃和空洞问题。
Nov, 2022
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种VAE的变种,并使用神经网络学习编码器/解码器的参数来比较这些变种与原始VAE的ELBO逼近。其中一种变化导致了一个EUBO,可以与原始ELBO一起用于研究VAE的收敛性。
Dec, 2022
研究纵观了变分自编码器(VAEs)的训练方法,提出了一种基于熵的自适应方法来优化更紧的变分下界,该方法能适应潜在层次变量模型中复杂的后验几何结构,并获得更高的生成度量。
Aug, 2023
通过在已知数据上进行推理的一类生成概率潜变量模型,变分自编码器(VAEs)通过平衡重建和正则化项。乘以beta的正则化项产生一个beta-VAE/ELBO,提高了潜空间的解缠性。然而,任何与1不同的beta值违反了条件概率的定律。为了提供一个类似参数的VAE,我们开发了一种Renyi(相对于Shannon)熵VAE以及引入类似参数的变分近似RELBO。Renyi VAE具有额外的Renyi正则化项,其条件分布不是可学习的,这个项基本上通过奇异值分解方法进行了解析评估。
Dec, 2023