具结构离散表示的深度生成模型的无偏学习
本文提出了一种新的推断模型——“阶梯式变分自动编码器”,并利用逐步添加的近似似然校正生成分布,在生成模型中实现了更深更分布的隐变量层次结构,提供了前沿的预测性能和更紧的下界。
Feb, 2016
本研究提出了一种基于深度潜在随机变量的自然图像生成模型,其采用新型分布称为修正高斯,其中采用类似spike-and-slab的稀疏性,保持了有效的随机梯度变分推断的可微性;通过一个结构化后验分布估计函数的近似,提出了一种新型结构化变分近似方法,避免常规均场假设,并保持了生成模型的先验依赖关系,从而实现了具有许多层潜在随机变量的深度模型的联合训练。
Feb, 2016
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学习。
Nov, 2016
通过提出一种基于两个重叠分布的混合平滑变换的新类变换,我们提高了对离散潜变量模型的训练能力,并且分别用dircted和undirected先验训练了二进制潜在模型,发现其优于其他几种连续弛豫过程。最终我们发展了一个具备全局离散先验和一系列卷积连续变量的生成模型DVAE++,在多个基准测试中获得了验证。
Feb, 2018
本文介绍了一种新的基于 Sliced-Wasserstein Autoencoders (SWAE)的生成模型,使用最优输运(Optimal Transport,OT)问题和Wasserstein距离。通过在自编码损失中加入 sliced-Wasserstein 距离,可以将潜在空间的分布形状成任何可取样的概率分布,同时避免了训练对抗网络或定义分布的需要。我们证明了这种方法具有类似于Wasserstein Autoencoders (WAE)和Variational Autoencoders(VAE)的能力,而且实现简单高效。
Apr, 2018
使用Variational Homoencoder(VHE)技术,在Omniglot数据集中建立层次化的PixelCNN,其效果优于所有现有模型,同时在一次性生成和分类任务上实现强大性能。
Jul, 2018
本研究利用自然演化策略算法学习离散结构化变分自编码器(VAE),它们是一种能够在生成学习中表示语义潜在空间的方法,此算法不需要梯度传播,通过前向传递估计梯度;经实验证明,它优化离散结构化VAE的效果与基于梯度的算法相当,并证明了在很多情况下NES能够收敛于非Lipschitz函数。
May, 2022
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
本文使用深度条件生成模型的方法,提出一种针对属性控制的结构化输出表示形式,并使用 CelebA 数据集和 CUB-200-2011 数据集进行训练和生成。研究结果表明,使用 CVAE 框架可以学习到一种脱离关联的多模态先验分布,从而更好地生成具有不同特征的图像样本。
Apr, 2023