变分推断的进展
本文介绍了一种基于 Markov 过程的 mean field variational approximation 方法,用于近似描述 Continuous-time Bayesian networks 中的概率分布,并提供了较好的推断和学习效果。
May, 2012
提出了一种基于随机梯度方法的变分推断新方法,不仅利用变分参数空间的几何性质,而且即使对于非共轭模型也可以产生简单的闭合式更新,该方法也具有收敛速率分析,即使用于非凸目标的随机镜像下降。在多种问题上,实验证明新算法在该框架中导出可以导致最先进的结果。
Oct, 2015
提出了一种新的算法Boosting Variational Inference(BVI),它基于渐进的计算,能够捕捉多模态、一般后验协方差和非标准后面形状,并且使用一个更灵活的逼近族,包括所有可能的有限混合一个参数基础分布(例如高斯)。
Nov, 2016
提出了一种基于优化的贝叶斯推论的新颖泛化方法,称为三原则规则,并通过GVI(广义变分推论)的探索得出应用,包括提高了贝叶斯神经网络和深高斯过程的预测性能和适当的边际。
Apr, 2019
本文基于函数分析和优化工具,对变分推断(VI)方法中的坐标上升变分推断(CAVI)算法进行收敛性分析,提出基于广义相关性的算法收缩速率测度,并在多个实例中应用了该理论,得出了算法收缩速率的明确上界。
Jun, 2023
Amortized variational inference (A-VI) is a general alternative to factorized (or mean-field) variational inference (F-VI) for approximating intractable posterior distributions, with conditions derived for achieving F-VI's optimal solution and strategies for expanding the domain of the inference function, while certain models like hidden Markov models and Gaussian processes cannot be matched by A-VI.
Jul, 2023
我们提出了一种新的变分推断方法 $\Xi$-变分推断 ($\Xi$-VI),通过熵正则化扩展了朴素均值场。$\Xi$-VI与熵最优输运问题密切相关,并从计算高效的Sinkhorn算法中受益。我们展示了$\Xi$-变分后验能够有效恢复真实的后验依赖关系,其中依赖关系由正则化参数进行加权。我们分析了参数空间维度对 $\Xi$-变分近似精度的影响以及它对计算的影响,从而粗略刻画了$\Xi$-VI中的统计计算权衡。我们还研究了$\Xi$-VI的经验性质,并建立了关于一致性、渐近正态性、高维渐近性和算法稳定性的结果。我们提供了使用该方法实现多项式时间近似推断的充分条件。最后,我们在模拟和真实数据上展示了 $\Xi$-VI 相对于均值场变分推断的实际优势。
Apr, 2024