利用 Hamiltonian Jacobian Estimation 实现了一个新的 Hamiltonian Variational Auto-Encoder(HVAE)模型,可以用于高效地进行变分自编码器模型训练,并构建目标受控的归一化流。
May, 2018
通过学习用于初始化 MCMC 的变分自编码器,实现了宏观的 EBM 采样,并将其与 EBM 和变分自编码器一起使用以生成样本和解决条件生成任务。
Dec, 2020
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
通过研究非线性的变分自编码器,本文证明了在接近确定性解码器的情况下,最优编码器近似反转了解码器,并确定了最大化 ELBO(证据下界)的模型的独立机制分析(IMA)的概念,即增加了一种对具有列正交 Jacobian 矩阵的解码器的归纳偏差,有助于恢复真实的潜在因素,并证明 ELBO 收敛到正则化对数似然。
Jun, 2022
本文提出了 Monte Carlo VAE 方法,并通过在多个应用中的表现来说明其性能,该方法在 Variational auto-encoders、Evidence Lower Bound、 importance sampling、Annealed Importance Sampling 等方面都做了较全面的探讨。
Jun, 2021
使用量子玻尔兹曼机实现的量子变分自编码器(QVAE)比仅涉及生成过程中的离散变量的相似方法在 MNIST 数据集上实现了最先进的性能。将 QBM 放置在 VAE 的潜在空间中将充分发挥当前和下一代量子计算机作为采样设备的潜力。
Feb, 2018
提出一种利用辅助变量来拓展变分分布家族的框架,通过神经网络来构建复杂的概率混合分布模型,以增强变分推断模型的灵活性和效果,并在密度估计任务上进行了实证评估。
Nov, 2017
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
研究发现将先前仅仅被孤立考虑的两个经验法则相结合可以避免后验坍塌,提高了模型的性能表现。虽然该方法的 ELBO(证据下界)较差,但在保留隐变量的能力及对训练数据分布的建模方面表现更好,说明传统的 VAE 目标函数可能无法同时平衡表示学习和数据分布建模。
Sep, 2019
通过构建一种显式的概率模型,将沃瑟斯坦 GANs 与熵正则化视为基于变分下界的生成模型,从而使得 GANs 和 VAEs 之间建立了有理论支持的联系。同时,作者还在多个数据集上计算了 GANs 的似然统计量,验证了该理论结果。
Oct, 2018