Dec, 2017

训练神经网络中的综合模型、批处理和领域并行性

TL;DR本文提出了一种在大型分布式内存计算机上使用小批量随机梯度下降(SGD)训练深度神经网络(DNNs)的集成方法,该方法融合了模型、批次和领域并行性,并分析了通信复杂度和理论批次并行方法的扩展极限。