Jun, 2019

更快的分布式深度神经网络训练:计算和通信解耦合的随机梯度下降

TL;DR本文提出了Computation and Communication Decoupling Stochastic Gradient Descent (CoCoD-SGD)算法, 实现了计算和通信的并行处理, 有效减少了通信开销, 较传统分布式SGD算法具有更高的时间加速度, 在16个GPU上的ResNet18和VGG16深度神经网络训练表现出2-3倍的速度提升。