通过引入一种新的变分上界家族,我们提出了一种用于层次模型的变分下界族,使得我们可以使用更具表现力的近似后验概率,并在一系列实验中证明了所提出的方法的卓越性能。
May, 2019
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本论文提出了使用摊销方法的变分推断,使用共享参数同时表示所有本地分布,类似于使用完整高斯联合分布,但可在数个数量级更大的数据集上实现,速度大大快于使用结构化变分分布。
Nov, 2021
本文通过机器学习中的变分推断方法近似计算难以计算的概率密度,特别地,本文对变分推断的思想和现代 VI 研究中的重要问题进行了全面的讨论。
Jan, 2016
提出了一种新的算法 Boosting Variational Inference(BVI),它基于渐进的计算,能够捕捉多模态、一般后验协方差和非标准后面形状,并且使用一个更灵活的逼近族,包括所有可能的有限混合一个参数基础分布(例如高斯)。
Nov, 2016
通过优化固定协方差和常值权重的高斯混合模型,将变分推断(Variational Inference)视为最小化平滑相对熵,研究其在非高斯情况下的理论性质,包括梯度下降和粒子系统优化。
Jun, 2024
本文探讨不同近似推断方法(Markov chain Monte Carlo 和变分推断)的优缺点,并提出一种分布来衡量它们之间的差距,其示例介绍了如何从这个分布中采样,以便在现有方法(基于 Langevin 动力学和随机梯度变分推断)之间进行加权插值。
Jun, 2017
本研究提出了一种新的方法,称为嵌套变分推断,用于学习嵌套重要性取样器中的建议,该方法通过在每个嵌套级别上最小化正向或反向 KL 散度。该方法适用于许多常用的重要性取样策略,并提供了一种学习中间密度的机制,该中间密度可以作为启发式来引导取样器。我们的实验将 NVI 应用于(a)使用学习的退火路径从多峰分布中采样(b)学习近似于隐藏马尔可夫模型中未来观测值的启发式以及(c)在分层深度生成模型中执行分摊推理。我们观察到,优化嵌套目标可以提高采样质量,表现为对数平均权重和有效样本大小。
Jun, 2021
本文提出了一种基于变分推理的贝叶斯系统发育分析方法,应用分支分离贝叶斯网络与合适的变分分布通过随机梯度上升来训练,实践表明该方法既能获得高效率的探索机制,也可以提供与 MCMC 相当的性能。
Apr, 2022
我们提出了一种可以与其他变分参数一起学习的代理似然函数,以此支持两种算法类别优势的组合,此算法允许用户在推理保真度和计算成本之间进行直观权衡,适用于概率编程框架中黑盒子推理。
Dec, 2021