May, 2015
异步并行随机梯度下降 - 可扩展分布式机器学习算法的数值核心
Asynchronous Parallel Stochastic Gradient Descent - A Numeric Core for Scalable Distributed Machine Learning Algorithms
Janis Keuper, Franz-Josef Pfreundt
TL;DR本文提出了一种利用异步单向通信范例的新型并行更新算法 ASGD,相较于现有方法,ASGD 具有更快(或至少相当)的收敛速度,接近于线性的缩放以及稳定的准确性,在大规模机器学习问题中具有应用前景。