Apr, 2024
基于插值的随机加速梯度下降算法的快速收敛
Faster Convergence of Stochastic Accelerated Gradient Descent under
Interpolation
TL;DR我们在插值条件下证明了随机Nesterov加速的新的收敛速度。不同于以往的分析,我们的方法可以加速任何在期望中取得足够进展的随机梯度方法。证明使用估计序列框架进行,适用于凸函数和强凸函数,并且可以轻松推广到满足强生长条件的加速SGD。在这种特殊情况下,我们的分析将强生长常数的依赖性从ρ减小到√ρ,相对于以前的工作来说,这一改进相当于最坏情况下条件数的平方根,并解决了对于随机加速的保证可能不如SGD的批评。