结构化随机变分推断
本文介绍了一种基于 Markov 过程的 mean field variational approximation 方法,用于近似描述 Continuous-time Bayesian networks 中的概率分布,并提供了较好的推断和学习效果。
May, 2012
在这篇论文中,我们讨论了一种广义均场理论,它使用可追踪分布的丰富集合来近似表示一类难以处理的分布,并通过分布空间上的约束优化来实现。我们还介绍了一类广义均场算法,用于复杂的指数族模型的近似推断,它将复杂模型分解成一组不相交变量簇,并使用一组规范的定点方程来迭代地更新参数,找到保留每个簇内原始依赖结构的局部最优参数,因此完全分解了整体推断问题。通过实验证明,我们比较了不同可追踪族群(不同粒度的簇)对推理质量的影响,并将其与BP算法在几个标准模型上进行了比较。还讨论了高阶MF逼近的可能扩展。
Oct, 2012
本研究考虑在对数超模型中进行近似贝叶斯推断,提出一种基于变分方法的L-FIELD方法可以更加高效地解决这个问题。进一步分析了L-FIELD的性质,并在图像分割中的应用证实了其可扩展性和高质量性能。
Feb, 2015
提出了一种新的算法Boosting Variational Inference(BVI),它基于渐进的计算,能够捕捉多模态、一般后验协方差和非标准后面形状,并且使用一个更灵活的逼近族,包括所有可能的有限混合一个参数基础分布(例如高斯)。
Nov, 2016
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本论文提出了一种基于Wasserstein空间梯度流、Fokker-Planck方程和扩散过程的分析mean field variational inference (MFVI)算法的框架,旨在解决MFVI算法中的收敛问题。研究表明,此框架可以保证多种解决变分推断问题的算法的收敛性。
Oct, 2022
在高维度的贝叶斯线性模型中,通过最小化TAP自由能量,我们展示了一种局部最小化算法,提供了与后验边际一致的估计,并可用于正确校准的后验推断。在一定的一般条件下,这种局部最小值可以通过Approximate Message Passing (AMP)算法找到,从而在局部邻域内线性收敛到最小值。
Nov, 2023
我们提出了一种新的变分推断方法 $\Xi$-变分推断 ($\Xi$-VI),通过熵正则化扩展了朴素均值场。$\Xi$-VI与熵最优输运问题密切相关,并从计算高效的Sinkhorn算法中受益。我们展示了$\Xi$-变分后验能够有效恢复真实的后验依赖关系,其中依赖关系由正则化参数进行加权。我们分析了参数空间维度对 $\Xi$-变分近似精度的影响以及它对计算的影响,从而粗略刻画了$\Xi$-VI中的统计计算权衡。我们还研究了$\Xi$-VI的经验性质,并建立了关于一致性、渐近正态性、高维渐近性和算法稳定性的结果。我们提供了使用该方法实现多项式时间近似推断的充分条件。最后,我们在模拟和真实数据上展示了 $\Xi$-VI 相对于均值场变分推断的实际优势。
Apr, 2024