PixelVAE:自然图像的潜变量模型
PixelVAE++ 是一种结合了 VAE 和 PixelCNN++ 的新型生成模型,可在保留潜变量信息的同时学习图像的全局和局部结构,并在 MNIST、Omniglot、CIFAR-10 数据集中实现了最先进的性能。
Aug, 2019
本文提出了一种基于深度神经网络的变分自编码器,使用实值非体积保存变换来准确计算数据的条件似然,采用由少量中间层组成的强大条件耦合层来使其学习效果更好,在图像建模任务上有着不错的表现。
Nov, 2016
本文提出了一种基于变分自编码器和神经自回归模型的简单但原则性的方法来学习全局表示,该方法允许对全局潜在特征进行控制,通过设计相应的架构,可以迫使全局潜在特征丢弃 2D 图像纹理等无关信息,并且通过利用自回归模型作为潜在分布和解码分布,可以大大提高 VAE 的生成建模性能,实现了 MNIST、OMNIGLOT 和 Caltech-101 Silhouettes 密度估计任务的新的最先进结果。
Nov, 2016
通过引入 LiteVAE,一种基于 2D 离散小波变换的自编码器家族,我们在维持输出质量的同时提高了可扩展性和计算效率,基本 LiteVAE 模型在高分辨率图像生成方面与现有的 VAEs 相当,但编码器参数减少了六倍,导致更快的训练速度和更低的 GPU 内存需求,而我们的较大模型在所有评估指标(rFID、LPIPS、PSNR 和 SSIM)上均优于复杂度相当的 VAEs。
May, 2024
这篇文章介绍了一种对变分自动编码器 (VAEs) 进行简单扩展的方法,通过渐进性减小潜空间大小来自动确定训练过程中的最佳潜空间大小,并将该方法与传统的超参数网格搜索进行比较,结果表明其速度显著更快,且在四个图像数据集上实现了最佳的维度。此外,还证明了我们方法的最终性能与从头开始训练的最佳潜空间大小相当,因此可能作为一种便利的替代方法。
Dec, 2023
本文探讨矢量量化变分自编码器模型 (VQ-VAE) 进行大规模图像生成的应用,采用自回归先验信息,结合简单前馈编码器和解码器网络,以压缩的潜变量空间进行自动回归模型采样,同时使用多尺度层级 VQ-VAE 进行生成,取得比 Generative Adversarial Networks 更加优秀的样本生成品质。
Jun, 2019
使用 Variational Homoencoder(VHE)技术,在 Omniglot 数据集中建立层次化的 PixelCNN,其效果优于所有现有模型,同时在一次性生成和分类任务上实现强大性能。
Jul, 2018
本文研究无监督学习方法,通过提出基于 PatchVAE 的中层样式表述表示,结合小图像块的处理,以此来提高自动分类识别任务的精度表现。实验结果显示,相比传统的 VAEs 方法,本文的方法取得了更好的识别性能和效果。
Apr, 2020
本文介绍了一种结合了预测编码原理和将输入编码为离散脉冲计数的变分自编码器(P-VAE)的新型架构,通过引入 Poisson 分布的潜变量和预测编码,模型损失函数中出现了代谢成本项,表明与稀疏编码存在关系,我们通过实证验证了这一点。此外,我们分析了学习表示的几何结构,将 P-VAE 与其他 VAE 模型进行对比。发现 P-VAE 以相对较高的维度对输入进行编码,使下游分类任务中的类别具有线性可分性,样本效率提高了 5 倍。我们的工作提供了一个可解释的计算框架来研究类脑感觉处理,并为更深入地理解感知作为一种推理过程铺平了道路。
May, 2024