Aug, 2018

非凸优化的自适应梯度方法收敛性研究

TL;DR本文提供了关于一类自适应梯度方法(包括 AMSGrad,RMSProp 和 AdaGRad)在光滑非凸函数优化方面的收敛性分析,证明了期望下自适应梯度方法能够收敛到一阶稳定点,同时还证明了 AMSGrad,RMSProp 和 AdaGrad 的收敛速率,这些结论有助于更好地理解自适应梯度方法在优化非凸目标时的机制。