简化变分贝叶斯
本文介绍了一种基于随机变分推理 (Variational Inference) 的学习算法,可以为存在潜变量的、具有难以处理的后验分布的连续概率模型提供有效的推理和学习方法,特别是在大型数据集下具有较好的表现,且已经在实验上得到了验证。
Dec, 2013
本文研究了使用变分贝叶斯方法进行参数估计的合理性问题,并提供了获得基于点估计的最优风险界的一般条件。这些条件涉及参数空间上距离度量的某些测试函数的存在以及对先验的最小假设。本文概述了验证这些条件的一般步骤,这对具有或没有潜变量的现有贝叶斯模型广泛适用。同时,具体应用于潜在狄利克雷分配和高斯混合模型的过程也作了讨论。
Dec, 2017
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本篇论文研究、应用和优化混合模型和变化推理等技术对贝叶斯统计学、计算生物学和自然语言处理等多个领域的贡献,并研究证明了可变组成元素数量的情况下,情形近似的集中性,以及证明了这种多次证明技术确实是有效的。
May, 2018
本文提出了变分贝叶斯 (Variational Bayes) 框架,通过解决概率图模型中潜在变量及其结构计算的问题,避免了因参数而导致过拟合和子最优泛化表现的通常方法,同时证明了该算法能成功应用于无监督聚类、盲源分离等模型。
Jan, 2013
提出了一种新的算法 Boosting Variational Inference(BVI),它基于渐进的计算,能够捕捉多模态、一般后验协方差和非标准后面形状,并且使用一个更灵活的逼近族,包括所有可能的有限混合一个参数基础分布(例如高斯)。
Nov, 2016