强健的变分推断
我们提出了一种快速的非迭代近似推理方法,通过前馈网络实现从变分后验进行有效精确抽样,该方法通过应用几种直观的模型独立方差减少技术,优于 MNIST 和 Reuters RCV1 文件数据集上的唤醒-睡眠算法,并取得了最新成果。
Jan, 2014
本文介绍了变分Renyi界限(VR),它将传统的变分推理扩展到了Renyi的Alpha-散度。这种新型的变分方法统一了许多现有方法,并且通过参数化散度的Alpha值,实现了从证据下限到对数(边际)似然的平滑插值。采用重参数化技巧、蒙特卡罗近似和随机优化方法,获得了一个可行和统一的优化框架。我们进一步考虑了负Alpha值,并在所提出的框架的一个新的特殊情况下提出了一种新的变分推理方法。在贝叶斯神经网络和变分自编码器上的实验证明了VR界限的广泛适用性。
Feb, 2016
本文提供理论和实证证据表明,使用更严格的证据下界(ELBO)可能会降低梯度估计器的信噪比,从而对学习推理网络产生不利影响,并介绍了三种新算法:偏重要性加权自动编码器(PIWAE),乘法重要性加权自动编码器(MIWAE)和组合重要性加权自动编码器(CIWAE)。同时,我们的结果表明,PIWAE可以同时改善推理和生成网络的训练。
Feb, 2018
该论文提出了两种可用于变分推断和特别是变分自编码器训练的基于Kullback-Leibler和Rényi分歧的对数似然的新界限,这受到在连续数据集上训练VAE时遇到的困难的启发,同时避免了给数据添加任何额外噪音来源的必要,具有数值稳定的训练程序。
Jul, 2018
本研究介绍了Annealed Variational Objectives方法,该方法通过在优化目标中加入能量调节来促进学习,实现了在层次变分方法中的训练,并在潜在空间中鼓励探索。
Sep, 2018
本文提出了一种使用正确评分规则理论的噪声对比估计(NCE)方法家族,适用于潜变量模型;这个方法家族可以通过类似变分贝叶斯的方式从数据样本和噪声样本中提取并利用信息,并被称为全变分噪声对比估计时损失函数,其中,变分自编码器是其中的一种,也可以用于使用适当的分类损失将实际数据与合成样本区分开来;此外,我们讨论了全变分NCE目标的其他实例,并指出它们在实证行为上的差异。
Apr, 2023
学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于MAPA的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024