GAD-PVI: 一个通用的加速动态权重基粒子变分推断框架
提出了一种基于随机梯度方法的变分推断新方法,不仅利用变分参数空间的几何性质,而且即使对于非共轭模型也可以产生简单的闭合式更新,该方法也具有收敛速率分析,即使用于非凸目标的随机镜像下降。在多种问题上,实验证明新算法在该框架中导出可以导致最先进的结果。
Oct, 2015
本文提出了用于优化的通用变分推理算法,它是梯度下降法的一种自然补充,可以通过一种函数梯度下降来最小化KL距离,从而迭代地传输一组粒子以匹配目标分布。经过在各种真实世界模型和数据集上的实证研究,我们的方法与现有的最先进的方法相竞争。我们方法的推导基于一个新的理论结果,它连接了平滑转换下KL距离的导数与Stein's恒等式以及最近提出的核化的Stein距离,这也具有独立的兴趣。
Aug, 2016
本文提出了一种新颖的基于矩阵的 Stein 变分梯度下降算法,通过利用 Hessian 矩阵和 Fisher 信息矩阵等预处理矩阵来加速粒子的探索,从而实现了更加高效的近似推断,并在实验中证明其性能优于其他基线方法。
Oct, 2019
本研究提出了一种名为Grassmann Stein变分梯度下降 (GSVGD) 的新概念,用于处理维度高的目标分布问题,具备在高维空间中探索低维结构等特性。GSVGD方法与其他变体方法相比,更新打分函数和数据的投影器并通过一种耦合的Grassmann值扩散进程确定最优投影器。理论和实验结果表明,GSVGD在高维问题中具有高效的状态空间探索能力。
Feb, 2022
本文提出一种名为PFG的新粒子变分推断算法,采用一种 functional regularization 方法,支持更广泛的函数类,同时具有更好的可伸缩性和对恶劣条件分布的适应性,在渐进意义下连续地收敛于KL散度。
Nov, 2022
通过使用正态分布初始化器逼近高斯目标样本并使用密度和基于粒子的实现方法,证明了Stein Variational Gradient Descent (SVGD) 及其变体的特性,包括线性收敛和性能优越性,这对于深入理解SVGD和Gaussian variational inference (GVI)的相关性提供了具体贡献。
May, 2023
本文基于函数分析和优化工具,对变分推断(VI)方法中的坐标上升变分推断(CAVI)算法进行收敛性分析,提出基于广义相关性的算法收缩速率测度,并在多个实例中应用了该理论,得出了算法收缩速率的明确上界。
Jun, 2023
该论文介绍了一种称为广义Wasserstein梯度下降(GWG)的粒子变分推断方法框架,基于KL散度的广义Wasserstein梯度流,可视为具有更广泛正则化器类的函数梯度方法,展示了GWG具有强大的收敛性保证,通过实验证明了该框架在模拟和真实数据问题上的有效性和高效性。
Oct, 2023
该研究提出了一种名为粒子变分推理(PVI)的新方法,通过粒子近似欧氏 - 瓦塞尔斯坦梯度流,利用经验度量来近似描述最优混合分布,并直接优化证据下界(ELBO),无需对混合分布做参数化假设。实证结果表明,PVI在各种任务中表现出色,并对相关的自由能函数的梯度流行为进行了理论分析,证明了解的存在性和唯一性以及混乱传播结果。
Jun, 2024
本研究解决了在约束域中进行采样的难题,提出了一种新的功能梯度变分推断方法,称为约束功能梯度流(CFG),并为其引入了梯度流的边界条件。通过理论分析和实验验证,展示了该方法在总变差下具有可证明的连续时间收敛性,提供了一种有效的处理约束域采样的框架。
Oct, 2024