耦合变分自编码器
本文提出 Coupled-VAE 方法,通过 encoder weight sharing 和 decoder signal matching 来改善 variational autoencoders 的编码器和解码器参数,从而避免后验网络落入常见的局部最优解。实验结果表明该方法可显着提高概率估计和空间潜变量的丰富度,并将其推广到条件语言建模中。
Apr, 2020
该研究提出了基于相关变量分布的 CVAEs 方法来学习高维数据的潜在表示。通过对无向相关图的所有最大有向无环子图的可计算较低限的平均值来解决相关先验带来的不可计算问题,证明了该方法在公共基准评级数据集的匹配和链接预测,以及合成数据集上的谱聚类中的有效性。
May, 2019
本文研究了一种新的模型 Gaussian Process Prior Variational Autoencoder (GPPVAE),结合了 VAEs 和具有 GP priors 关联特性的能力,解决了 VAEs 假设的潜在样本表示是独立并且同分布的假设不够强的问题,并利用协方差矩阵中的结构,介绍了一种新的随机反向传播策略,达到了分布式和低内存计算随机梯度的目的,实验证明该方法可以在两个图像数据应用程序中优于 conditional VAEs (CVAEs) 和标准 VAEs。
Oct, 2018
针对变分自编码器的先验洞问题,我们提出了一种能源化先验,通过基础先验分布和重新加权因子的乘积来定义,以使基础先验更接近集体后验,并通过噪声对比估计来训练重新加权因子,实验证明此方法可以大幅提高 MNIST、CIFAR-10、CelebA 64 和 CelebA HQ 256 数据集上的最先进 VAE 的生成性能。
Oct, 2020
通过改进目标函数,提出了新的自动编码器模型 AVAE,利用 KDE 来建模高维度下的边缘后验分布,通过多个基准数据集的实证评估验证了 AVAE 相对于 SOTA 方法的有效性。
Nov, 2023
本文以优化传输问题为基础,研究了无监督生成建模,并使用惩罚最优传输(POT)目标来有效地最小化该问题。作者发现,AAE 中的目标与 POT for the 2-Wasserstein distance 相同,并与其他流行技术如 VAE 进行了比较。作者的理论结果包括更好地理解 VAEs 生成图像的模糊度以及建立 Wasserstein GAN 和 POT for the 1-Wasserstein distance 之间的对偶关系。
May, 2017
本文提出了一种新的表征学习方法,Gromov-Wasserstein Autoencoders(GWAE),通过将 variational autoencoding scheme 与 Gromov-Wasserstein metric 相结合来直接匹配潜变量和数据分布,以实现在不改变其目标的情况下将 meta-priors 引入潜空间。
Sep, 2022
该研究探讨了使用无香精变换来改进变分自编码器生成模型的表现,使用更具信息量和低方差的后验表示来确保更高质量的重建,并使用 Wasserstein 分布度量来替换 KL 散度以允许更快的后验分布,最后得到了一种竞争力强的确定性采样 VAE,可在脚手架分数上提高性能,训练方差较低。
Jun, 2023
通过在概率密度差异方面引入新的正则化方法,有效解决了 Variational autoencoders 中的 LATENT REPRESENTATION LEARNING 方面出现的后验崩溃和空洞问题。
Nov, 2022