BriefGPT.xyz
Apr, 2015
近端设置下的小批量半随机梯度下降
Mini-Batch Semi-Stochastic Gradient Descent in the Proximal Setting
HTML
PDF
Jakub Konečný, Jie Liu, Peter Richtárik, Martin Takáč
TL;DR
提出了一种利用小批量方案改进半随机梯度下降(S2GD)方法的 mS2GD,该方法主要用于最小化一个由很多光滑凸函数的平均值和一个简单的非光滑凸正则化器组成的强凸函数,分析表明,该方法在具有小批量效应和简单并行实现方案的情况下,可以加速算法的收敛过程。
Abstract
We propose mS2GD: a method incorporating a
mini-batching
scheme for improving the theoretical complexity and practical performance of
semi-stochastic gradient descent
(S2GD). We consider the problem of minimizing
→