通过在变分自编码器中添加缩小版本的图像随机变量,提高图像生成的质量表现,使该方法在负对数似然方面和 VAE 表现相当,同时在数据合成方面获得更好的 FID 得分。
Jun, 2020
本文探讨矢量量化变分自编码器模型 (VQ-VAE) 进行大规模图像生成的应用,采用自回归先验信息,结合简单前馈编码器和解码器网络,以压缩的潜变量空间进行自动回归模型采样,同时使用多尺度层级 VQ-VAE 进行生成,取得比 Generative Adversarial Networks 更加优秀的样本生成品质。
Jun, 2019
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
本研究针对变分自编码器(VAEs)的效率和各种假设,提出了新的 VAE 增强方案,该方案不需要任何超参数或敏感调整,并且与多种 GAN 模型竞争时,能产生清晰的样本和稳定的 FID 分数。
Mar, 2019
本文提出了一种基于变分自编码器和神经自回归模型的简单但原则性的方法来学习全局表示,该方法允许对全局潜在特征进行控制,通过设计相应的架构,可以迫使全局潜在特征丢弃 2D 图像纹理等无关信息,并且通过利用自回归模型作为潜在分布和解码分布,可以大大提高 VAE 的生成建模性能,实现了 MNIST、OMNIGLOT 和 Caltech-101 Silhouettes 密度估计任务的新的最先进结果。
Nov, 2016
本文提出了一种统一的概率模型,用于学习成像数据的潜在空间并执行监督回归,利用 VAE 和神经网络回归器的联合正则化可以更精确地预测 MR 图像的年龄,实现了对人脑结构发育规律的直观解释。
Apr, 2019
介绍了变分自编码器(VAE)背后的直觉,解释了其背后的数学原理,并描述了它们的一些经验行为。
Jun, 2016
本文提出了一种基于混合模型和狄利克雷过程的无限变分自编码器,其容量能够适应输入数据,从而使得自动编码器数量能够根据数据自动变化,实验结果表明该方法在半监督学习中具有很高的灵活性。
本文研究了多层结构的变分自编码器模型,采用层级随机层和多层解码器结构生成更具信息的潜变量编码,同时生成中间的句子表示作为高层计划向量,实验结果表明多层结构能够生成更加连贯且不重复的长文本,并进一步缓解了后验坍缩问题。
Feb, 2019
这篇论文提出了 PixelVAE,这是一种基于 PixelCNN 的 VAE 模型,可以高效地捕获大型结构和保留压缩的潜在表示,适用于无监督学习的挑战。