VAE 抑制
研究发现将先前仅仅被孤立考虑的两个经验法则相结合可以避免后验坍塌,提高了模型的性能表现。虽然该方法的 ELBO(证据下界)较差,但在保留隐变量的能力及对训练数据分布的建模方面表现更好,说明传统的 VAE 目标函数可能无法同时平衡表示学习和数据分布建模。
Sep, 2019
该研究提出了一种将遗传算法和变分自编码器相结合的进化变分自编码器方法,通过动态生成和更新不确定性权衡学习,解决了现有方法中面临的问题,包括 KL 消失问题和基于深度学习中的早期收敛和随机搜索问题。实验结果表明,与竞争方法相比,eVAE 在文本生成、图像生成质量等方面均有显著改善。
Jan, 2023
通过研究非线性的变分自编码器,本文证明了在接近确定性解码器的情况下,最优编码器近似反转了解码器,并确定了最大化 ELBO(证据下界)的模型的独立机制分析(IMA)的概念,即增加了一种对具有列正交 Jacobian 矩阵的解码器的归纳偏差,有助于恢复真实的潜在因素,并证明 ELBO 收敛到正则化对数似然。
Jun, 2022
本研究分析了 Variational Autoencoders 的近似误差,探讨了该误差的多种可能性并找到了其一致子集。重要的是,此子集无法通过考虑更深的编码器 / 解码器网络进行扩大,也无法降低相应误差。
Feb, 2021
本文提出了一种正则化方法来强制 Variational Auto-Encoder 的一致性,通过最小化 Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
通过在概率密度差异方面引入新的正则化方法,有效解决了 Variational autoencoders 中的 LATENT REPRESENTATION LEARNING 方面出现的后验崩溃和空洞问题。
Nov, 2022
改进了 Variational Graph Auto-Encoders 方法以应对节点聚类任务中的挑战,包括推理和生成模型的差异、后验坍缩、特征随机性和特征漂移,并通过对比学习获得更好的聚类结果。
Dec, 2023
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
通过多模态数据,在机器学习研究中设计深度潜变量模型一直是一个长期的主题。本文考虑了一种可以严密下界数据对数似然的变分约束,同时发展了更灵活的聚合方案,通过组合不同模态的编码特征与置换不变神经网络。数值实验表明了多模态变分约束和各种聚合方案之间的权衡。我们展示了当我们想近似已鉴别模型中观察到的模态和潜变量的真实联合分布时,更紧密的变分约束和更灵活的聚合模型可能会带来益处。
Sep, 2023
通过在已知数据上进行推理的一类生成概率潜变量模型,变分自编码器(VAEs)通过平衡重建和正则化项。乘以 beta 的正则化项产生一个 beta-VAE/ELBO,提高了潜空间的解缠性。然而,任何与 1 不同的 beta 值违反了条件概率的定律。为了提供一个类似参数的 VAE,我们开发了一种 Renyi(相对于 Shannon)熵 VAE 以及引入类似参数的变分近似 RELBO。Renyi VAE 具有额外的 Renyi 正则化项,其条件分布不是可学习的,这个项基本上通过奇异值分解方法进行了解析评估。
Dec, 2023