感知生成自编码器
本文提出了一种训练程序,它基于辅助损失函数来控制潜变量所捕获的信息以及留给自回归解码器的信息,该方法可以实现任意强大的自回归解码器,达到具有潜变量的模型中最先进的定量性能,并生成定性令人信服的样本。
Nov, 2017
本篇论文提供了一个新的原则,即利用生成模型的层次结构将自编码器与生成对抗网络相结合,以防止学习到的生成模型中的模式崩溃,并使用区分器学习合成可能性和隐式后验分布。
Jun, 2017
本文利用 Poincaré 球模型的超几何结构作为潜变量空间,研究了 VAE 在这个空间的运用,该方法在嵌套数据结构下表现出色,并展现了超几何结构对于 VAE 的优越性。
Jan, 2019
该论文研究了变分自编码器(VAE)在学习可解释的表示和生成建模方面的出色表现,提供了对其良好性能的解释,阐明了该架构中解码器的局部正交性,从而促进重构和正交性之间的平衡。
Dec, 2018
本文提出了 “对抗自编码器”(AAE),它是一个概率自编码器,使用最近提出的生成对抗网络 (GAN) 通过匹配自编码器的隐藏代码向量的聚合后验分布与任意先验分布来执行变分推断。匹配聚合后验分布和先验保证从先验空间的任何部分生成都会产生有意义的样本。结果,对抗自编码器的解码器学习了一种深度生成模型,将所施加的先验映射到数据分布。我们展示了对抗自编码器如何在半监督分类,图像风格和内容分离,无监督聚类,降维和数据可视化等应用中使用。我们在 MNIST、Street View 房屋号码和 Toronto Face 数据集上进行了实验,并展示了对抗性自编码器在生成建模和半监督分类任务中取得了有竞争力的结果。
Nov, 2015
提出了一种自动编码器技术,结合了变分自动编码器与生成式对抗网络,可透过特征表示量测数据空间的相似性,进而以特征误差为基础重新构建数据分布,其具有位移不变性,运用在脸部图像上可提供更优的视觉保真度,并能够学习出抽象且高层次的视觉特征。
Dec, 2015
本文研究了变分自编码器的训练问题,提出了一种二阶段的训练算法,证明了该算法可以在低维流形上训练,并且得到的生成器可以恰好支持原本的低维流形,且是由于训练算法的隐式偏差而非 VAE 损失本身的原因。
Dec, 2021
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于 MAPA 的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024
本文提出了一种新的表征学习方法,Gromov-Wasserstein Autoencoders(GWAE),通过将 variational autoencoding scheme 与 Gromov-Wasserstein metric 相结合来直接匹配潜变量和数据分布,以实现在不改变其目标的情况下将 meta-priors 引入潜空间。
Sep, 2022