Aug, 2018
非凸优化的自适应梯度方法收敛性研究
On the Convergence of Adaptive Gradient Methods for Nonconvex
Optimization
TL;DR本文提供了关于一类自适应梯度方法(包括AMSGrad,RMSProp和AdaGRad)在光滑非凸函数优化方面的收敛性分析,证明了期望下自适应梯度方法能够收敛到一阶稳定点,同时还证明了AMSGrad,RMSProp和AdaGrad的收敛速率,这些结论有助于更好地理解自适应梯度方法在优化非凸目标时的机制。