投影式斯坦变分梯度下降
本文提出了用于优化的通用变分推理算法,它是梯度下降法的一种自然补充,可以通过一种函数梯度下降来最小化KL距离,从而迭代地传输一组粒子以匹配目标分布。经过在各种真实世界模型和数据集上的实证研究,我们的方法与现有的最先进的方法相竞争。我们方法的推导基于一个新的理论结果,它连接了平滑转换下KL距离的导数与Stein's恒等式以及最近提出的核化的Stein距离,这也具有独立的兴趣。
Aug, 2016
本研究提出 Stein 变分梯度下降的变种分别采用代理梯度代替目标密度函数的真实梯度,并通过对梯度进行适当加权来纠正引入的偏差。同时,我们提出了一种基于模拟退火思想的 GF-SVGD,进一步提高了高维复杂分布的性能表现,并在经验研究中表明其性能优于一些最新的先进算法。
Jun, 2018
本文提出了一种改进的 Stein 变分梯度下降(SVGD)算法,采用函数空间的 Newton 迭代近似二阶信息以加速算法,同时还介绍了二阶信息在选择核函数时的更有效作用。在多个测试案例中,我们观察到与原始 SVGD 算法相比,有了显著的计算优势。
Jun, 2018
本文提出一种基于Stein算子的非参数推断方法,将Stein变分梯度下降(SVGD)用于解决推断问题,挖掘出一类函数,即Stein匹配集合,从而提供了更好的内核选择方法,并可以将问题转化为拟合Stein等式或求解Stein方程。
Oct, 2018
本文提出了一种新颖的基于矩阵的 Stein 变分梯度下降算法,通过利用 Hessian 矩阵和 Fisher 信息矩阵等预处理矩阵来加速粒子的探索,从而实现了更加高效的近似推断,并在实验中证明其性能优于其他基线方法。
Oct, 2019
本文提出了一种基于神经网络的参数化证见函数的改进 Stein 变分梯度下降方法,旨在解决传统 Stein 变分梯度下降中选择核函数的难题,经实验证明该方法在合成推理问题、贝叶斯线性回归和贝叶斯神经网络推理问题中有效可行。
Jul, 2021
本研究提出了一种名为Grassmann Stein变分梯度下降 (GSVGD) 的新概念,用于处理维度高的目标分布问题,具备在高维空间中探索低维结构等特性。GSVGD方法与其他变体方法相比,更新打分函数和数据的投影器并通过一种耦合的Grassmann值扩散进程确定最优投影器。理论和实验结果表明,GSVGD在高维问题中具有高效的状态空间探索能力。
Feb, 2022
本文中提出了一种深度展开的可训练 SVGD 算法,用于加速其收敛速度,并通过数值模拟实验证明了该算法相较于传统的 SVGD 变体具有更快的收敛速度。
Feb, 2024
本研究针对现有斯坦因变分梯度下降方法在无梯度信息情况下的局限性,提出了一种将演化策略与斯坦因变分步骤相结合的新方法。这种方法能够在没有梯度信息的情况下,从未规范化的目标密度中生成高质量样本,并在多个具有挑战性的基准问题中表现出显著的性能提升。
Oct, 2024
本文解决了Stein变分梯度下降(SVGD)中存在的方差崩溃问题,这一问题导致在小型贝叶斯神经网络(BNNs)中预测不佳。我们提出了一种新的方法Stein混合推断(SMI),通过让每个粒子参数化混合模型中的组件分布,并优化证据的下界(ELBO),显著提高了不确定性估计的准确性,尤其是在数据维度高且稀疏的情况下。
Oct, 2024