关于 $β$-VAEs 中的隐式正则化
本论文提出了一种控制推理模型平滑性的技术 - Amortized Inference Regularization(AIR),该技术能够提高VAE模型的推理和生成性能,并挑战了对amortized inference仅仅只是最大似然训练的一种近似方法的信仰,为理解和提高VAEs中的泛化能力提供了新方向。
May, 2018
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
本文研究了变分自编码器(VAE)在训练时出现的后验崩溃现象。针对训练动态的观察,我们提出了一种极其简单的改进VAE的训练方法,避免了之前工作中普遍存在的后验崩溃问题,并取得了比基准模型更优的实验结果。
Jan, 2019
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换VAEs中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
本文提出了一种正则化方法来强制Variational Auto-Encoder的一致性,通过最小化Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
该研究提出了一种名为“变分Laplace自动编码器”的深度生成模型的一般框架,在近似后验分布时采用拉普拉斯近似方法,提高后验表现,同时减少摊销误差。在MNIST,Omniglot,Fashion-MNIST,SVHN和CIFAR10数据集上进行的实验证明,该方法显着优于ReLU网络上其他最近的摊销或迭代方法。
Nov, 2022
通过提出一种正则化方法来提高变分自动编码器(VAEs)对于缺失数据的后验一致性,从而改善了缺失数据条件下的重构质量和利用潜在空间中的不确定性进行下游任务的绩效。
Oct, 2023
通过在已知数据上进行推理的一类生成概率潜变量模型,变分自编码器(VAEs)通过平衡重建和正则化项。乘以beta的正则化项产生一个beta-VAE/ELBO,提高了潜空间的解缠性。然而,任何与1不同的beta值违反了条件概率的定律。为了提供一个类似参数的VAE,我们开发了一种Renyi(相对于Shannon)熵VAE以及引入类似参数的变分近似RELBO。Renyi VAE具有额外的Renyi正则化项,其条件分布不是可学习的,这个项基本上通过奇异值分解方法进行了解析评估。
Dec, 2023
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于MAPA的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024