重要性加权自编码器
文中提出了一种新的基于变分自编码器的概率生成模型,该模型使用新颖的方法确定潜在变量先验和强制序数单位,并用于有监督、无监督和半监督学习以及标称和序数分类,实验结果表明该模型在这两方面的分类任务中表现较优。
Dec, 2018
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
本文提出了使用退火重要性采样(annealed importance sampling)来学习深度生成模型的方法,该方法是变分推断(variational inference)和马尔可夫链蒙特卡罗(Markov chain Monte Carlo)两种主要的近似方法的结合,通过实验表明该方法比重要性加权自编码器(importance weighted auto-encoders)更好地建模了概率密度,并且通过权衡计算和模型精度的关系提高模型准确性的同时不增加内存成本。
Jun, 2019
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高MNIST、CIFAR-10、CelebA 64和CelebA HQ 256数据集上的最先进VAE的生成性能。
Oct, 2020
本文提出了Monte Carlo VAE方法,并通过在多个应用中的表现来说明其性能,该方法在Variational auto-encoders、Evidence Lower Bound、 importance sampling、Annealed Importance Sampling等方面都做了较全面的探讨。
Jun, 2021
该研究提出了一种名为“变分Laplace自动编码器”的深度生成模型的一般框架,在近似后验分布时采用拉普拉斯近似方法,提高后验表现,同时减少摊销误差。在MNIST,Omniglot,Fashion-MNIST,SVHN和CIFAR10数据集上进行的实验证明,该方法显着优于ReLU网络上其他最近的摊销或迭代方法。
Nov, 2022
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于MAPA的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024