Jan, 2018

随机梯度下降优化算法的强误差分析

TL;DR本文对随机梯度下降(SGD)优化算法进行了严格的强误差分析,并证明了在标准凸性类型的目标函数和 SGD 优化算法中出现的随机误差的松弛假设下,对于任意小的 ε 和任意大的 p,所考虑的 SGD 优化算法都会按照 1/2-ε 的阶数在强 L^p 意义下收敛到全局最小值。本文的证明重点在于首先运用动力系统中的 Lyapunov-type 函数理论技术开发出一般的 SGD 优化算法收敛技术,然后应用具有多项式结构的具体 Lyapunov-type 函数,并在出现在 Lyapunov-type 函数中的幂上执行归纳论证,以达到在强 L^p 意义下实现任意大 p 收敛率的目的。