基于虚拟粒子随机逼近的可证明快速 SVGD 有限粒子变体
该论文探讨了基于粒子最优化的采样技术和 Stein 变分梯度下降算法的理论缺陷,提出了注入随机噪声的 SPOS 算法,并第一次为相关的 SPOS 框架(涉及 SVGD)开发了非渐近收敛理论,以粒子数和迭代次数的 1-Wasserstein 距离为特征,表征算法的收敛性。实验证明,与 SVGD 相同数量的更新次数(不太大)对于每个粒子,采用更多的粒子并不一定会更好地逼近目标分布,这种现象也被观察到并在合成数据实验中得到了验证。
Sep, 2018
本文提出一种基于Stein算子的非参数推断方法,将Stein变分梯度下降(SVGD)用于解决推断问题,挖掘出一类函数,即Stein匹配集合,从而提供了更好的内核选择方法,并可以将问题转化为拟合Stein等式或求解Stein方程。
Oct, 2018
本文提出了一种新颖的基于矩阵的 Stein 变分梯度下降算法,通过利用 Hessian 矩阵和 Fisher 信息矩阵等预处理矩阵来加速粒子的探索,从而实现了更加高效的近似推断,并在实验中证明其性能优于其他基线方法。
Oct, 2019
本研究提出了一种名为Grassmann Stein变分梯度下降 (GSVGD) 的新概念,用于处理维度高的目标分布问题,具备在高维空间中探索低维结构等特性。GSVGD方法与其他变体方法相比,更新打分函数和数据的投影器并通过一种耦合的Grassmann值扩散进程确定最优投影器。理论和实验结果表明,GSVGD在高维问题中具有高效的状态空间探索能力。
Feb, 2022
本文研究了Stein Variational Gradient Descent(SVGD)方法收敛过程中粒子的各向同性特性,并证明了有限粒子的SVGD无法扩展到整个样本空间,而是倾向于在一定范围内围绕粒子中心聚集;我们提出了一种改进的SVGD方法——增强式信息传递SVGD(AUMP-SVGD),该方法是一个不需要目标分布稀疏性的两阶段优化过程,能够在各种基准问题中高效地解决方差崩溃问题,实验结果表明此方法能够取得令人满意的精度。
May, 2023
通过使用正态分布初始化器逼近高斯目标样本并使用密度和基于粒子的实现方法,证明了Stein Variational Gradient Descent (SVGD) 及其变体的特性,包括线性收敛和性能优越性,这对于深入理解SVGD和Gaussian variational inference (GVI)的相关性提供了具体贡献。
May, 2023
本文中提出了一种深度展开的可训练 SVGD 算法,用于加速其收敛速度,并通过数值模拟实验证明了该算法相较于传统的 SVGD 变体具有更快的收敛速度。
Feb, 2024
Stein变分梯度下降(SVGD)是一种广泛应用于机器学习领域的采样算法, 通过迭代地移动一组相互作用的粒子(代表样本)来逼近目标分布,我们研究了噪声SVGD的长期渐进行为,并证明其极限集是良定义的,且该极限集随着粒子数目的增加逼近目标分布,特别是噪声SVGD可避免SVGD中观察到的方差崩溃现象,我们的方法涉及证明噪声SVGD的轨迹与McKean-Vlasov过程的轨迹密切相似。
Jun, 2024
本文针对斯坦变分梯度下降(SVGD)算法在核斯坦误差(KSD)和Wasserstein-2度量下的有限粒子收敛速率问题,提出了新的见解。研究表明,相对熵的时间导数可以分解为与N成正比的主要负部分及较小的正部分,从而获得收敛速率为$1/\sqrt{N}$,较之前研究显著提高。此外,该方法在维度上也有线性增长,从而进一步推动了Wasserstein-2的收敛性研究。
Sep, 2024
本研究针对现有斯坦因变分梯度下降方法在无梯度信息情况下的局限性,提出了一种将演化策略与斯坦因变分步骤相结合的新方法。这种方法能够在没有梯度信息的情况下,从未规范化的目标密度中生成高质量样本,并在多个具有挑战性的基准问题中表现出显著的性能提升。
Oct, 2024