BriefGPT.xyz
Jul, 2015
分布式小批量SDCA
Distributed Mini-Batch SDCA
HTML
PDF
Martin Takáč, Peter Richtárik, Nathan Srebro
TL;DR
该论文提出了一种改进的mini-batch随机双坐标上升方法,用于正则化经验损失最小化(即,支持向量机和支持向量机类型目标)。我们的分析允许灵活的抽样方案,包括数据分布跨多台机器,并结合了对损失平滑度和/或数据展开性的依赖(通过谱范数度量)。
Abstract
We present an improved analysis of mini-batched
stochastic dual coordinate ascent
for
regularized empirical loss minimization
(i.e.
svm
an
→