PixelVAE++:具离散先验的改进 PixelVAE 模型
这篇论文提出了 PixelVAE,这是一种基于 PixelCNN 的 VAE 模型,可以高效地捕获大型结构和保留压缩的潜在表示,适用于无监督学习的挑战。
Nov, 2016
本文提出了一种基于深度神经网络的变分自编码器,使用实值非体积保存变换来准确计算数据的条件似然,采用由少量中间层组成的强大条件耦合层来使其学习效果更好,在图像建模任务上有着不错的表现。
Nov, 2016
本文介绍了 PixelGAN 自编码器,通过条件生成对抗网络并在潜变量编码上加入不同的先验分布从而对图像信息进行全局对比或局部对比,实现了样式和内容信息的自监督分离,并在 MNIST、SVHN 和 NORB 数据集上实现了竞争力的半监督分类结果。
Jun, 2017
本文提出了一种基于变分自编码器和神经自回归模型的简单但原则性的方法来学习全局表示,该方法允许对全局潜在特征进行控制,通过设计相应的架构,可以迫使全局潜在特征丢弃 2D 图像纹理等无关信息,并且通过利用自回归模型作为潜在分布和解码分布,可以大大提高 VAE 的生成建模性能,实现了 MNIST、OMNIGLOT 和 Caltech-101 Silhouettes 密度估计任务的新的最先进结果。
Nov, 2016
本文探讨矢量量化变分自编码器模型 (VQ-VAE) 进行大规模图像生成的应用,采用自回归先验信息,结合简单前馈编码器和解码器网络,以压缩的潜变量空间进行自动回归模型采样,同时使用多尺度层级 VQ-VAE 进行生成,取得比 Generative Adversarial Networks 更加优秀的样本生成品质。
Jun, 2019
使用 Variational Homoencoder(VHE)技术,在 Omniglot 数据集中建立层次化的 PixelCNN,其效果优于所有现有模型,同时在一次性生成和分类任务上实现强大性能。
Jul, 2018
本文研究了一种新的模型 Gaussian Process Prior Variational Autoencoder (GPPVAE),结合了 VAEs 和具有 GP priors 关联特性的能力,解决了 VAEs 假设的潜在样本表示是独立并且同分布的假设不够强的问题,并利用协方差矩阵中的结构,介绍了一种新的随机反向传播策略,达到了分布式和低内存计算随机梯度的目的,实验证明该方法可以在两个图像数据应用程序中优于 conditional VAEs (CVAEs) 和标准 VAEs。
Oct, 2018
通过引入 LiteVAE,一种基于 2D 离散小波变换的自编码器家族,我们在维持输出质量的同时提高了可扩展性和计算效率,基本 LiteVAE 模型在高分辨率图像生成方面与现有的 VAEs 相当,但编码器参数减少了六倍,导致更快的训练速度和更低的 GPU 内存需求,而我们的较大模型在所有评估指标(rFID、LPIPS、PSNR 和 SSIM)上均优于复杂度相当的 VAEs。
May, 2024
本文提出了使用 Dirichlet 优先的 DirVAE 模型,利用随机梯度法来推论模型参数,解决了潜变量坍塌问题,并在 MNIST,OMNIGLOT,和 SVHN 等数据集上进行了半监督和监督分类任务的实验,结果表明 DirVAE 模型在生成的潜在表达方面与其它基线模型相比具有最佳的对数似然,并且没有出现基线模型出现的坍塌问题,同时,对比基线模型,利用 DirVAE 模型学到的潜在表达还能够实现更好的半监督和监督分类性能。
Jan, 2019
本研究提出了一种新颖的方法来构建变分自编码器 (Variational Autoencoder,VAE), 该方法通过 enforced deep feature consistency 的方式替代了传统的像素级别的损失,以充分保留输入数据的空间相关性,产生更自然的视觉效果和更好的感知质量。 对 CelebA 数据集的测试结果表明,我们模型能够优于其他文献中的方法,并且还能够产生能捕捉面部表情语义信息的潜在向量,这些向量可用于实现面部属性预测的最新性能。
Oct, 2016