Dec, 2012
非光滑优化的随机梯度下降:收敛结果与最优平均方案
Stochastic Gradient Descent for Non-smooth Optimization: Convergence
Results and Optimal Averaging Schemes
TL;DR本文探讨了在没有光滑假设的情况下,以及通过运行平均方案将SGD迭代转换为具有最佳优化精度的解决方案的性能,并证明了对于凸非光滑目标函数,最后一个SGD迭代的次优性的程度随T的轮次按O(log(T)/ sqrt(T))缩放,对于非光滑强凸情况,次优性的程度随T按O(log(T)/ T)缩放。此外,本文提出了一种新的简单平均方案,并提供了一些实验说明。