变分Laplace自编码器
本研究提出了一种基于深度潜在随机变量的自然图像生成模型,其采用新型分布称为修正高斯,其中采用类似spike-and-slab的稀疏性,保持了有效的随机梯度变分推断的可微性;通过一个结构化后验分布估计函数的近似,提出了一种新型结构化变分近似方法,避免常规均场假设,并保持了生成模型的先验依赖关系,从而实现了具有许多层潜在随机变量的深度模型的联合训练。
Feb, 2016
我们提出了一种半摊分解方法,使用摊分变分推断(Amortized Variational Inference,AVI)来初始化变分参数并运行随机变分推断(Stochastic Variational Inference,SVI)来细化它们,从而使推理网络和生成模型能够进行端到端的梯度优化训练,这种方法有助于在像文本生成这样的问题上使用丰富的生成模型并避免训练VAE时产生的后验崩溃现象,实验证明这种方法在标准的文本和图像数据集上胜过强有力的自回归和变分基线。
Feb, 2018
本论文提出了一种控制推理模型平滑性的技术 - Amortized Inference Regularization(AIR),该技术能够提高VAE模型的推理和生成性能,并挑战了对amortized inference仅仅只是最大似然训练的一种近似方法的信仰,为理解和提高VAEs中的泛化能力提供了新方向。
May, 2018
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
本文提出了一种双重摊销变分推理过程来解决传统推理技术训练的生成模型在适应新分布时遇到的困难,通过学习可转移潜在表示,在不同的概率模型之间推广,特别地,应用于图像分布上,该方法在 MNIST 和 NORB 的下游图像分类任务中显著优于基线(分别达 10-50% 和 10-35% 的准确率提升)
Feb, 2019
本文探讨了变分推断在学习生成模型和正则化变分自编码器中的作用,并提出了一种基于确定性自编码器目标函数的正则化方法,该方法与 $eta$-VAE 表现相似。
Jan, 2020
通过提出一种正则化方法来提高变分自动编码器(VAEs)对于缺失数据的后验一致性,从而改善了缺失数据条件下的重构质量和利用潜在空间中的不确定性进行下游任务的绩效。
Oct, 2023
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于MAPA的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024