变分预测
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本文介绍了一种基于随机变分推理 (Variational Inference) 的学习算法,可以为存在潜变量的、具有难以处理的后验分布的连续概率模型提供有效的推理和学习方法,特别是在大型数据集下具有较好的表现,且已经在实验上得到了验证。
Dec, 2013
本文提出了变分贝叶斯 (Variational Bayes) 框架,通过解决概率图模型中潜在变量及其结构计算的问题,避免了因参数而导致过拟合和子最优泛化表现的通常方法,同时证明了该算法能成功应用于无监督聚类、盲源分离等模型。
Jan, 2013
本文提出了一种基于深度神经网络参数化的先验分布方法,通过学习贝叶斯逆映射实现了实时推理。经过基准问题的验证,该方法的后验估计与马尔可夫链蒙特卡罗方法的对应结果一致,并在前向传递神经网络的代价下提供了观测的后验参数。
May, 2023
提出了一种新的算法 Boosting Variational Inference(BVI),它基于渐进的计算,能够捕捉多模态、一般后验协方差和非标准后面形状,并且使用一个更灵活的逼近族,包括所有可能的有限混合一个参数基础分布(例如高斯)。
Nov, 2016
本研究开发了基于随机变分推断的可伸缩算法,用于逼近后验概率分布,并且针对一类大规模的概率模型进行了技术开发;对两个概率主题模型进行了演示并应用于大量文献数据的分析,其中包括自然杂志、《纽约时报》和维基百科,结果表明随机变分推断可轻松处理大型数据集并优于传统变分推断,并且表明贝叶斯非参数主题模型优于参数主题模型;因此基于随机变分推断的算法可以将复杂的贝叶斯模型应用于大规模的数据集。
Jun, 2012
通过大规模实验,我们展示了变分推断是 GARCH-like 模型中贝叶斯学习的一种可靠且具有竞争力的方法,证明了它是一种吸引人的、相当精确且可行的替代蒙特卡洛采样的方法。
Oct, 2023