Stein变分梯度下降与黑盒变分推断之间的等价性
本文提出了用于优化的通用变分推理算法,它是梯度下降法的一种自然补充,可以通过一种函数梯度下降来最小化KL距离,从而迭代地传输一组粒子以匹配目标分布。经过在各种真实世界模型和数据集上的实证研究,我们的方法与现有的最先进的方法相竞争。我们方法的推导基于一个新的理论结果,它连接了平滑转换下KL距离的导数与Stein's恒等式以及最近提出的核化的Stein距离,这也具有独立的兴趣。
Aug, 2016
本文提出一种基于Stein算子的非参数推断方法,将Stein变分梯度下降(SVGD)用于解决推断问题,挖掘出一类函数,即Stein匹配集合,从而提供了更好的内核选择方法,并可以将问题转化为拟合Stein等式或求解Stein方程。
Oct, 2018
本文提出了一种新颖的基于矩阵的 Stein 变分梯度下降算法,通过利用 Hessian 矩阵和 Fisher 信息矩阵等预处理矩阵来加速粒子的探索,从而实现了更加高效的近似推断,并在实验中证明其性能优于其他基线方法。
Oct, 2019
本文研究贝叶斯推断问题,特别关注于最近引入的斯坦变分梯度下降方法,介绍了该方法的交互粒子系统构建;并通过研究选择合适的正定核函数的问题,提出采用调整尾部的某些不可微核函数,证明在各种数值实验中这种方法具有明显的性能提升。
Dec, 2019
本研究研究了使用不同的Stein变分梯度下降方法来解决深度神经网络的Bayesian框架的问题,通过改善功能多样性和不确定性估计,逼近真实的Bayesian后验,并展示使用随机SVGD更新可以进一步改善性能。
Jun, 2021
本文提出了一种基于神经网络的参数化证见函数的改进 Stein 变分梯度下降方法,旨在解决传统 Stein 变分梯度下降中选择核函数的难题,经实验证明该方法在合成推理问题、贝叶斯线性回归和贝叶斯神经网络推理问题中有效可行。
Jul, 2021
通过使用正态分布初始化器逼近高斯目标样本并使用密度和基于粒子的实现方法,证明了Stein Variational Gradient Descent (SVGD) 及其变体的特性,包括线性收敛和性能优越性,这对于深入理解SVGD和Gaussian variational inference (GVI)的相关性提供了具体贡献。
May, 2023
本文中提出了一种深度展开的可训练 SVGD 算法,用于加速其收敛速度,并通过数值模拟实验证明了该算法相较于传统的 SVGD 变体具有更快的收敛速度。
Feb, 2024
本研究针对现有斯坦因变分梯度下降方法在无梯度信息情况下的局限性,提出了一种将演化策略与斯坦因变分步骤相结合的新方法。这种方法能够在没有梯度信息的情况下,从未规范化的目标密度中生成高质量样本,并在多个具有挑战性的基准问题中表现出显著的性能提升。
Oct, 2024
本文解决了Stein变分梯度下降(SVGD)中存在的方差崩溃问题,这一问题导致在小型贝叶斯神经网络(BNNs)中预测不佳。我们提出了一种新的方法Stein混合推断(SMI),通过让每个粒子参数化混合模型中的组件分布,并优化证据的下界(ELBO),显著提高了不确定性估计的准确性,尤其是在数据维度高且稀疏的情况下。
Oct, 2024