基于随机梯度 Fisher 评分的贝叶斯后验抽样
本文从随机过程的角度出发,论证了常数学习率随机梯度下降算法(constant SGD)可用作一种近似贝叶斯推断算法,其可优化模型中的超级参数,同时分析了 Langevin Dynamics 和 Stochastic Gradient Fisher Scoring 的近似误差以及 Polyak 平均算法的最优性。在此基础上,提出了一种可扩展的近似马尔科夫链蒙特卡罗(MCMC)算法,即平均随机梯度采样算法(Averaged Stochastic Gradient Sampler)。
Apr, 2017
本论文介绍了通过使用随机梯度算法来近似解决高斯过程中线性系统求解的限制,并利用影响收敛的隐含偏差的谱特点来解释结果,最终在大规模数据集上取得了最先进的预测性能和不确定性估计。
Jun, 2023
本文研究了基于大规模数据集的贝叶斯学习的关键 MCMC 算法,发现当前常用的 SGLD 算法存在问题,但通过引入控制变量后的 SGLD Fixed Point 算法可以有效改善该问题,且与 Langevin Monte Carlo 算法计算成本相比更低,可为该类应用提供参考。
Nov, 2018
在机器学习中,使用贝叶斯后验概率分布作为模型参数可以避免过度拟合,Stochastic gradient Langevin dynamics (SGLD) 是一种近似贝叶斯后验概率分布的算法,使用易于计算的 Fisher 矩阵近似,使用 Fisher 矩阵预处理可以用于大型神经网络中,并将 SGLD 与 dropout 类似的正则化技术相结合以减少过拟合。
Dec, 2017
本文介绍如何将随机梯度下降算法与调整参数应用于概率建模中的近似后验推断,通过最小化数据生成分布与目标后验分布之间的 KL 散度作为理论框架,让 SGD 有效地作为贝叶斯推断的一种方法,发现其可以成为概率模型优化超参数的一种新途径。
Feb, 2016
此研究介绍了随机梯度贝克动力学(SGBD)算法,通过扩展最近开发的贝克马尔科夫链蒙特卡洛(MCMC)方案为随机梯度框架,实现了在大数据集下对贝叶斯采样的鲁棒性。研究表明,相比流行的随机梯度 Langevin 动力学算法,SGBD 在超参数调整和目标梯度的不规则行为方面表现更为稳健。
May, 2024
通过 PAC-Bayes 和算法稳定性的结合研究了随机梯度下降算法的泛化误差,提出了一种基于后验优化的自适应采样算法,并在基准数据集上进行评估。结果表明,相较于均匀采样,自适应采样既可以更快地降低经验风险,也可以提高样本外准确性。
Sep, 2017
本文提出了一种使用差分隐私技术保证贝叶斯学习个体隐私安全的算法,采样自后验分布得出的估计符合要求,同时随机梯度下降方法也可以达到类似效果,是较好的解决贝叶斯学习隐私问题的方法。
Feb, 2015
本文提出了利用 Hamiltonian Monte Carlo 方法的广义运动函数来改进随机梯度马尔可夫蒙特卡罗采样的效率,并讨论了克服这种泛化所引入的实际问题的技术。实验证明,该方法在探索复杂的多峰后验分布方面表现优秀。
Jun, 2017