本文介绍了一种新的变分自编码器 (VAE) 的重构项,它特别惩罚生成模糊图像的能力,同时仍然最大化建模分布下的 ELBO。在三个不同的数据集上展示了该损失函数的潜力,优于 VAE 的几种最近提出的重建损失。
Apr, 2023
使用多段式 VAE 模型生成高品质图像,通过使用残差块和跳跃连接来增加解码器网络的容量,并使其能够使用多段式生成精细的图像。
May, 2017
本文研究了对输入和隐层同时进行噪声注入的变分自编码器,提出了一种改进的目标函数。当输入数据有噪声时,传统的变分自编码器的训练方法不可行,这里提出了一种可行的训练方法。实验结果表明,在 MNIST 和 Frey Face 数据集上,提出的去噪变分自编码器(DVAE)的平均对数似然比 VAE 和重要性加权自编码器更好。
Nov, 2015
介绍了一种新的 VDVAE-SR 模型,利用预训练 VDVAE 的迁移学习来解决图像超分辨率问题,并与其他同类模型在图像质量指标上具有相当的竞争力。
Mar, 2022
本文提出了一种新的变分自编码模型优化标准,推广了标准的证据下界,提供了它们恢复数据分布和学习潜在特征的条件,并在形式上证明了通常出现模糊样本和无信息潜在特征等常见问题的条件。基于这些新的见解,我们提出了一种新的序列化 VAE 模型,可以基于像素逐一重构损失在 LSUN 图像数据集上生成清晰的样本,并提出一种旨在鼓励无监督学习信息潜在特征的优化标准。
Feb, 2017
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
本文提出了一种基于深度神经网络的变分自编码器,使用实值非体积保存变换来准确计算数据的条件似然,采用由少量中间层组成的强大条件耦合层来使其学习效果更好,在图像建模任务上有着不错的表现。
Nov, 2016
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学习。
本文提出了一种正则化方法来强制 Variational Auto-Encoder 的一致性,通过最小化 Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
本文提出了基于生成模型的感知图像超分辨率方法,结合变分自编码器实现了联合降噪和超分辨率,使用条件生成对抗网络实现了具有良好视觉效果的图片超分辨率,并通过实验验证了该方法的有效性。
Apr, 2020