研究纵观了变分自编码器(VAEs)的训练方法,提出了一种基于熵的自适应方法来优化更紧的变分下界,该方法能适应潜在层次变量模型中复杂的后验几何结构,并获得更高的生成度量。
Aug, 2023
本文提出了 Monte Carlo VAE 方法,并通过在多个应用中的表现来说明其性能,该方法在 Variational auto-encoders、Evidence Lower Bound、 importance sampling、Annealed Importance Sampling 等方面都做了较全面的探讨。
Jun, 2021
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
提出一种利用辅助变量来拓展变分分布家族的框架,通过神经网络来构建复杂的概率混合分布模型,以增强变分推断模型的灵活性和效果,并在密度估计任务上进行了实证评估。
Nov, 2017
使用量子玻尔兹曼机实现的量子变分自编码器(QVAE)比仅涉及生成过程中的离散变量的相似方法在 MNIST 数据集上实现了最先进的性能。将 QBM 放置在 VAE 的潜在空间中将充分发挥当前和下一代量子计算机作为采样设备的潜力。
Feb, 2018
本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
Levenstein VAE 提出了一种简单易优化且避免后验坍塌的新目标,通过在生成的序列的每个时间步中根据 Levenshtein 距离预测最优延续来生成序列,从而产生比其他方法更具信息化的潜在表达。
Apr, 2020
通过研究非线性的变分自编码器,本文证明了在接近确定性解码器的情况下,最优编码器近似反转了解码器,并确定了最大化 ELBO(证据下界)的模型的独立机制分析(IMA)的概念,即增加了一种对具有列正交 Jacobian 矩阵的解码器的归纳偏差,有助于恢复真实的潜在因素,并证明 ELBO 收敛到正则化对数似然。
Jun, 2022
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
通过学习用于初始化 MCMC 的变分自编码器,实现了宏观的 EBM 采样,并将其与 EBM 和变分自编码器一起使用以生成样本和解决条件生成任务。
Dec, 2020