实际中的可扩展自然梯度 Langevin 动力学
在机器学习中,使用贝叶斯后验概率分布作为模型参数可以避免过度拟合,Stochastic gradient Langevin dynamics (SGLD) 是一种近似贝叶斯后验概率分布的算法,使用易于计算的 Fisher 矩阵近似,使用 Fisher 矩阵预处理可以用于大型神经网络中,并将 SGLD 与 dropout 类似的正则化技术相结合以减少过拟合。
Dec, 2017
本文研究了基于大规模数据集的贝叶斯学习的关键 MCMC 算法,发现当前常用的 SGLD 算法存在问题,但通过引入控制变量后的 SGLD Fixed Point 算法可以有效改善该问题,且与 Langevin Monte Carlo 算法计算成本相比更低,可为该类应用提供参考。
Nov, 2018
使用加权运输成本不等式来量化 SGLD 在欧几里得 2 - 瓦瑟斯坦距离下收敛到随机分布的速率,并在非凸学习问题的背景下提供有限时间保证来找到两种风险的近似最小化器。
Feb, 2017
本研究利用自适应参数预处理噪声的方法,将 Fisher Scoring 等高阶曲率信息引入 Stochastic Gradient Langevin Dynamics 中,使其能够有效地跳出深度神经网络中曲率异常的波动区域,与 Adam、AdaGrad 等一阶自适应方法的收敛速度相当,并在测试集上实现了与 SGD 同等的泛化性能。
Jun, 2019
本文研究了随机梯度 Langevin 动力学(SGLD)算法,针对非凸优化问题,注入适当缩放的高斯噪声来更新参数,我们分析了算法达到参数空间任意子集的的命中时间,从理论上得出结论:对于经验风险最小化,如果经验风险在点值上接近于(平滑的)总体风险,则该算法在多项式时间内实现了总体风险的近似局部最小值,逃离仅存在于经验风险的次优局部最小值。同时,我们还展示了 SGLD 如何改进学习零一损失下线性分类器的已知最佳学习结果之一。
Feb, 2017
本研究提出并验证了使用自适应预处理与 SGLD 相结合的方法,在深度神经网络的训练中可以解决参数空间的病态和过拟合问题,并且在逻辑回归,前馈神经网络和卷积神经网络等模型上,表现出了最先进的性能。
Dec, 2015
本论文提出了一种称为轮廓随机梯度 Langevin 动力学(CSGLD)的自适应加权随机梯度 Langevin 动力学算法,用于 Bayesian 学习在大数据的统计学中。该算法在多模态分布的模拟中具有很大的优势,并测试了 CIFAR10 和 CIFAR100 的性能。
Oct, 2020
本文研究了低精度随机梯度 Langevin 动力学(SGLD)和其量化方法在深度学习中的应用,发现低精度梯度累积器通过新开发的量化函数可以实现较少的成本和可比的性能。
Jun, 2022
本文从成员隐私保护的角度出发,研究了 SGLD 算法的信息泄露性质,证明了 SGLD 算法能够在一定程度上防止训练数据集的信息泄露,同时实验结果验证了该算法在实际应用中不仅能够减少信息泄露,还能够提高深度神经网络的泛化能力。
Oct, 2019
我们研究了使用固定步长的随机梯度 Langevin 动力学(SGLD)方法的特点及其偏差,并提出了一个修正的 SGLD 方法,在步长的一阶上消除了由于随机梯度方差引起的渐近偏差,并且得到了有限时间偏差、方差和均方误差(MSE)的界限。
Jan, 2015