Jul, 2018

动态模型平均的高效分散式深度学习

TL;DR我们提出了一种高效的协议,用于分布式数据源的分散式深度神经网络训练,该协议允许同等处理模型训练的不同阶段,并快速适应概念偏移,这导致与周期性通信的最先进的方法相比,通信减少了一个数量级。此外,我们得出一个通信限制,该限制随序列化学习问题难度的增加而缩放得很好,通信的减少几乎没有代价,因为预测性能保持几乎不变。实验证实了模型性能和通信之间的权衡的显着改进,这可能有助于许多分散式学习应用,例如自动驾驶或移动电话上的语音识别和图像分类。