双半隐式变分推断
本文介绍了变分Renyi界限(VR),它将传统的变分推理扩展到了Renyi的Alpha-散度。这种新型的变分方法统一了许多现有方法,并且通过参数化散度的Alpha值,实现了从证据下限到对数(边际)似然的平滑插值。采用重参数化技巧、蒙特卡罗近似和随机优化方法,获得了一个可行和统一的优化框架。我们进一步考虑了负Alpha值,并在所提出的框架的一个新的特殊情况下提出了一种新的变分推理方法。在贝叶斯神经网络和变分自编码器上的实验证明了VR界限的广泛适用性。
Feb, 2016
我们提出了一种半摊分解方法,使用摊分变分推断(Amortized Variational Inference,AVI)来初始化变分参数并运行随机变分推断(Stochastic Variational Inference,SVI)来细化它们,从而使推理网络和生成模型能够进行端到端的梯度优化训练,这种方法有助于在像文本生成这样的问题上使用丰富的生成模型并避免训练VAE时产生的后验崩溃现象,实验证明这种方法在标准的文本和图像数据集上胜过强有力的自回归和变分基线。
Feb, 2018
使用半隐式变分推断方法(SIVI)扩展了通常使用的解析变分分布族, 可以将变分参数与灵活的分布混合. 这种混合分布可以采用任何密度函数来生成独立的随机样本, 并且在推理贝叶斯模型的后验概率方面与MCMC方法的精度相当.
May, 2018
本文提出一种无偏隐式变分推断 (UIVI) 方法,通过定义具有表现力的变分族扩展变分推断的适用性,并直接优化证据下界 (ELBO),通过简单可重参数化分布和任意灵活的深度神经网络,获得多项式逻辑回归和变分自编码器等多个模型的更紧 ELBO 和更好的预测性能。
Aug, 2018
本论文引入了分层抽样的方法,实现了对混合分布的自动微分变分推断(ADVI); 并且通过建立重要性加权自编码器(IWAE)类似的较紧下界,进一步验证了该方法相较于传统ELBO或IWAE的优势,特别是在latents变量中有多峰分布时,表现出更高的准确性和更好的校准性。
Mar, 2020
本研究介绍了一种称为“确定性ADVI”的方法来解决MFVB的问题,并使用蒙特卡罗近似方法去优化其目标,相较于标准的MFVB,确定性ADVI能更准确地预测后验线性响应协方差,并在现实问题中表现更加可靠并具有更快的速度和更高的准确性。
Apr, 2023
SIVI-SM是基于分数匹配的新的SIVI方法,通过利用半隐变分族的分层结构,允许使用少噪声分数匹配处理难以处理的变分密度,SIVI-SM在各种贝叶斯推理任务中准确性与MCMC相当,并且优于基于ELBO的SIVI方法。
Aug, 2023
本研究提出了一种层级半隐式变分推断方法(HSIVI),通过引入辅助分布,允许更具表达力的多层半隐式分布构建,大大提升了对复杂目标分布的建模能力,同时可用于加速扩散模型的采样过程。
Oct, 2023
核SIVI(KSIVI)是SIVI-SM的变体,通过核技巧消除了对底层优化的需求,其上层目标是可计算的核Stein距离(KSD),从而实现了KSIVI的新收敛保证。我们在合成分布和各种真实数据贝叶斯推断任务中展示了KSIVI的有效性和效率。
May, 2024
该研究提出了一种名为粒子变分推理(PVI)的新方法,通过粒子近似欧氏 - 瓦塞尔斯坦梯度流,利用经验度量来近似描述最优混合分布,并直接优化证据下界(ELBO),无需对混合分布做参数化假设。实证结果表明,PVI在各种任务中表现出色,并对相关的自由能函数的梯度流行为进行了理论分析,证明了解的存在性和唯一性以及混乱传播结果。
Jun, 2024