操作符变分推理
本文研究了基于 boosting 的变分推断算法在优化视角下的收敛性质及其与经典 Frank-Wolfe 算法之间的联系,提出了收敛的充分条件,明确了算法的收敛速率和简化方法,并在概率模型和理论特性之间架起了桥梁。
Aug, 2017
本文介绍了一种使用直接优化“尺度不变的Alpha-Beta离散度”(sAB离散度)的变分逼近框架,该新目标包含了大多数使用Kullback-Leibler、Rényi或gamma离散度的变分目标,还提供了以前在变分推理环境中从未利用过的目标函数。这通过两个易于解释的控制参数实现,可以在离散度空间上平滑地插值,同时交换目标分布的质量覆盖和数据异常值鲁棒性等属性。此外,通过重新定位用于复杂变分目标的蒙特卡罗计算现有方法,可以直接优化sAB变分目标,导致离散度的估计值而不是变分下限。我们展示了这个目标在回归问题的贝叶斯模型上的优势。
May, 2018
本研究介绍了Annealed Variational Objectives方法,该方法通过在优化目标中加入能量调节来促进学习,实现了在层次变分方法中的训练,并在潜在空间中鼓励探索。
Sep, 2018
提出了一种基于优化的贝叶斯推论的新颖泛化方法,称为三原则规则,并通过GVI(广义变分推论)的探索得出应用,包括提高了贝叶斯神经网络和深高斯过程的预测性能和适当的边际。
Apr, 2019
本研究介绍了一种称为“确定性ADVI”的方法来解决MFVB的问题,并使用蒙特卡罗近似方法去优化其目标,相较于标准的MFVB,确定性ADVI能更准确地预测后验线性响应协方差,并在现实问题中表现更加可靠并具有更快的速度和更高的准确性。
Apr, 2023
本文提供了第一篇关于全黑箱变分推断的收敛性保证,特别是蒙特卡罗变分推断。作者通过与传统算法相比的分析,证明了使用鲁棒的变分族文件和负责的算法设计,特别是使用近端随机梯度下降,可以实现最强的已知收敛速率保证。
May, 2023
本文基于函数分析和优化工具,对变分推断(VI)方法中的坐标上升变分推断(CAVI)算法进行收敛性分析,提出基于广义相关性的算法收缩速率测度,并在多个实例中应用了该理论,得出了算法收缩速率的明确上界。
Jun, 2023
黑盒变分推断是在使变分推断更“黑盒”的最近努力中的一个有前途的框架,但在基本版本中,它要么由于不稳定性而无法收敛,要么在执行前需要调整更新步骤,这使得它不完全通用。我们提出了一种通过将随机梯度上升重新定位为多元估计问题来规范其参数更新的方法。所提出的方法在方差减小方面相对较弱,但提供了更简单的代替和不需要分析师进行微调的权衡。基准数据集上的性能还表明,在模型拟合和收敛时间方面,与Rao-Blackwell化方法相比具有一致的表现或更好。
May, 2024
通过优化固定协方差和常值权重的高斯混合模型,将变分推断(Variational Inference)视为最小化平滑相对熵,研究其在非高斯情况下的理论性质,包括梯度下降和粒子系统优化。
Jun, 2024