变分自编码器简介
本文提出了一种新的推断模型——“阶梯式变分自动编码器”,并利用逐步添加的近似似然校正生成分布,在生成模型中实现了更深更分布的隐变量层次结构,提供了前沿的预测性能和更紧的下界。
Feb, 2016
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学习。
Nov, 2016
使用Variational Homoencoder(VHE)技术,在Omniglot数据集中建立层次化的PixelCNN,其效果优于所有现有模型,同时在一次性生成和分类任务上实现强大性能。
Jul, 2018
文中提出了一种新的基于变分自编码器的概率生成模型,该模型使用新颖的方法确定潜在变量先验和强制序数单位,并用于有监督、无监督和半监督学习以及标称和序数分类,实验结果表明该模型在这两方面的分类任务中表现较优。
Dec, 2018
该论文研究通过因式分解先验分布的方法实现对观察变量和潜在变量的真实联合分布的识别,从而实现了对深度潜在变量模型的拆分,论文中提出了一种新的非线性独立成分分析框架,该框架同时适用于具有噪音、欠完备或离散观测的情况。
Jul, 2019
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种VAE的变种,并使用神经网络学习编码器/解码器的参数来比较这些变种与原始VAE的ELBO逼近。其中一种变化导致了一个EUBO,可以与原始ELBO一起用于研究VAE的收敛性。
Dec, 2022
本文阐述了变分自编码器中潜变量的后验坍塌现象是由于潜在变量在生成模型中不可识别,提出了一类具有潜变量可识别性的深度生成模型,并证明了它们可以通过概率单射Brenier maps实现参数化,在合成和实际数据集上优于现有方法,从而解决了后验坍塌问题。
Jan, 2023