Nov, 2016

深度学习的八卦训练

TL;DR本研究旨在解决加速卷积神经网络训练的问题,其中使用了一种适用于随机梯度下降的分布式方法。这种并行优化设置使用多个线程,每个线程在本地变量上应用单独的梯度下降,并提出了一种具有吸取交际算法启发式的共享不同线程信息的新方法,具有良好的一致收敛性和完全异步和分散式的优势,该方法称为 GoSGD。我们在 CIFAR-10 上将此方法与最近的 EASGD 作比较,结果鼓舞人心。