本文提出了一种名为 VR-SGD 的变体随机梯度下降法,其使用平均值和上一个时期的最后迭代作为两个向量,能够直接解决非光滑和 / 或非强凸问题,并能够使用更大的学习率。此方法在解决各种机器学习问题,如凸和非凸的经验风险最小化以及特征值计算等方面,具有更快的收敛速度。
Feb, 2018
本文提出了针对复合目标强凸的情况下,带有方差约束的随机梯度下降法,其收敛速度优于传统的随机梯度下降法,同时常数因子也更小,只与输入数据的方差有关。
Oct, 2016
CheapSVRG is proposed as a new stochastic variance-reduction optimization scheme which achieves a linear convergence rate through a surrogate computation while also balancing computational complexity.
Mar, 2016
本研究分析了随机变量缩减梯度(SVRG)方法在非凸有限和问题中的应用,证明了其比随机梯度下降(SGD)和梯度下降(GD)更快收敛于固定点,并分析了一类 SVRG 在解决非凸问题上的线性收敛,同时研究了 mini-batch 变体的 SVRG 在并行设置中加速的外延。
本文提出一种基于随机零阶梯度与方差降低的高斯平滑的新型方法,用于优化非凸函数,特别是深度神经网络的黑盒攻击问题,并在实验中证明了其比现有的导数 - free 优化技术表现更优。
May, 2018
本论文研究如何利用训练数据的邻域结构来共享和复用过去随机梯度的信息,从而在瞬态优化阶段中提供优势,并提供了一个称为记忆化算法的方差减少族的统一收敛分析。
Jun, 2015
本文探讨了随机方差缩小技术在优化中的应用,研究发现在训练现代深度神经网络中,由于遇到难解的非凸优化问题,直接应用 SVRG 技术等方法效果不佳。
Dec, 2018
本文提出了一种基于分布式随机算法的方差约简方法,以解决在多代理网络中进行大规模非凸有限和优化问题,提出了 GT-VR 算法,并证明了其收敛性和效率优于一些现有的一阶方法。
Jun, 2021
该研究探讨了基于方差缩减的优化算法,尤其是异步版本的 SVRG 和 SAGA 在机器学习中的应用和实验表现。研究结果表明,该方法在稀疏设置下实现了近线性加速。
介绍一种使用卡尔曼过滤器进行随机优化的算法,并分析了其在非凸设置下收敛性的理论,并在神经网络和黑盒变分推理等许多机器学习领域上展示了其改进的性能。同时,介绍了一种分布式版本的算法,并将其扩展到 SGD 动量和 RMSProp。
Oct, 2018