这篇论文提出了改进的 CVAE 模型,采用无味采样、更结构化的混合潜空间和更富表达力的推理方法,用于轨迹预测和图像建模任务,并在各自数据集上优于现有方法和基准模型。
Oct, 2023
采用扩散模型集成编码器和无条件扩散模型的得分函数,消除了 VAE 图像模糊的问题,并显著提高了性能。
Apr, 2023
本文介绍 Wasserstein 自编码器 (WAE) 的应用,用于概率句子生成,并与其他概率模型进行比较。研究表明,在 stochastic encoding 由固定分布制备时,该分布往往趋向于变成 Dirac delta function,于是提出了一种改进型 WAE 以鼓励编码的随机性,实验表明,该模型在保持与 VAE 相似的连续性和平滑性的同时,能更好的还原句子。
Jun, 2018
本文提出了一种正则化方法来强制 Variational Auto-Encoder 的一致性,通过最小化 Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
该论文介绍的方法通过密度比技巧来达到 KL 散度的隐式计算,在不模拟聚合后验的情况下,可以使用最优先验,从而在各种数据集上实现高密度估计性能。
Sep, 2018
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换 VAEs 中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
本研究提出了利用 von Mises-Fisher 分布替代 Gaussian 分布模型的 VAE,能更好地捕捉数据中的超球面潜在结构,且在低维数据类型中优于传统 VAE。
Apr, 2018
介绍了变分自编码器(VAE)背后的直觉,解释了其背后的数学原理,并描述了它们的一些经验行为。
Jun, 2016
设计一种算法 Guided-VAE,通过提供信号来实现 VAE 的潜在编码 / 嵌入,以学习可控的生成模型,该算法在表示学习,合成 / 采样改进,分类中取得了更好的效果
Apr, 2020