双向 Helmholtz 机器
本文介绍了一种利用深度神经网络和近似贝叶斯推理相结合的广义深度生成模型,并引入了用于表示近似后验分布的识别模型,并利用随机反向传播来开发算法,实现生成和识别模型参数的联合优化,最终将模型应用于实际数据集,生成更真实的分布、准确地恢复缺失数据,并在高维数据的可视化上发挥了重要作用。
Jan, 2014
本文研究使用多层感知器、最大均值差异等统计假设检验技术来训练生成对抗网络,并与自编码器网络相结合,以产生比基准方法更优秀的 MNIST 和 Toronto Face Database 的生成模型。
Feb, 2015
我们开发了一种基于“匹配网络”的新生成模型Generative Matching Network,该模型通过在额外输入数据集的条件下学习新的概念,无需使用广泛推理过程进行训练或适应,且在可用的更多附加数据的情况下显着提高了预测性能,优于现有的最先进条件生成模型。
Dec, 2016
本文介绍了一种基于深度生成模型的架构,该架构在训练过程中使用多层的潜在变量,并且在所有潜在变量和输出之间包括确定性路径,以及提供了一组更丰富的连接,这些连接在推理和生成计算之间实现了更有效的信息通信。我们在重构分布中引入了轻量级自回归模型以提高自然图像的性能。实验表明,我们的方法在标准图像建模基准测试中达到了最先进的性能,并且在没有标签信息的情况下可以暴露潜在的类结构,同时可以提供自然图像中被遮挡区域的令人信服的估计。
Dec, 2016
本文揭示了Variational Autoencoders (VAEs)的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估VAE-GAN混合模型并分析类概率估计对分布学习的影响,得出VAE-GAN混合模型在可扩展性、评估和推理方面比VAE更加困难,无法提高GAN的生成质量。
Feb, 2018
本文介绍和研究了一类概率生成模型,其中潜在对象是有限时间间隔上的有限维扩散过程,观察变量是在扩散的终端点条件下绘制的。 通过随机控制的视角,我们为这种生成模型的采样和变分推断提供了统一的观点,并量化了基于扩散的生成模型的表现力。我们最后提出并分析了一个无偏模拟的方案,并提供了结果估计值的方差上限。这个方案可以实现为深度生成模型并具有随机层数。
Mar, 2019
本文介绍了一种基于最小距离估计的统计模型,即对于可能性不易计算的生成模型,通过指定核函数,作为一个度量距离的最大均值差异(MMD)可以用来进行最小距离估计,同时结合自然梯度下降算法的应用使这种估计更加高效和鲁棒。
Jun, 2019
通过引入Hessian Penalty正则化项并应用于多个数据集的ProGAN来训练,我们证明基于Hessian Penalty的方法在潜空间中产生平行于轴的解缠缚现象。并且在BigGAN的潜空间中无需监督地识别可解释方向。我们还提供了实证证据表明,当应用于超参数化的潜空间时,Hessian Penalty鼓励显著的收缩。
Aug, 2020
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于MAPA的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024
深度生成模型与流形假设之间的相互作用引起了人们的广泛关注。本文通过流形视角对DGM进行了首次调查,并对其进行了两个新的贡献:首先,形式上证明了高维似然函数的数值不稳定性是无法避免的;其次,发现基于自编码器的DGM可以被解释为近似最小化Wasserstein距离,这一结果有助于解释其出色的实证结果。流形视角提供了理解DGM的丰富视角,我们希望能够使之更加易于理解和推广。
Apr, 2024