May, 2017
用于非凸优化的随机递归梯度算法
Stochastic Recursive Gradient Algorithm for Nonconvex Optimization
Lam M. Nguyen, Jie Liu, Katya Scheinberg, Martin Takáč
TL;DR本文研究分析了随机递归梯度算法 (StochAstic Recursive grAdient algoritHm, SARAH) 的 mini-batch 版本,用于解决非凸损失函数的经验损失最小化问题。我们提出了一种子线性收敛率 (对于一般非凸函数) 和一种线性收敛率 (对于梯度主导函数),这两种方法相比其他现代非凸损失随机梯度算法具有一些优势。