Aug, 2018
关于一类Adam型非凸优化算法的收敛性
On the Convergence of A Class of Adam-Type Algorithms for Non-Convex
Optimization
TL;DR本文研究一类自适应梯度基于动量的算法,这些算法同时使用过去的梯度更新搜索方向和学习率。该类算法被称为Adam类型,研究了一些充分条件,保证了这些方法在解决非凸优化问题时的收敛性,为训练深度神经网络提供了理论支持。另外,文中提出了一类(确定性)增量自适应梯度算法,收敛速度与Adam类型算法相同,可以应用于更广泛的机器学习和优化问题。