ICLRJun, 2020

随时小批量:利用在线分布式优化中的滞后者

TL;DR本研究提出了一种名为 Anytime Minibatch 的在线分布式优化方法,其通过多轮共识平均其最小批量梯度来更新主变量,以减轻节点处理速度不均导致的进度缓慢问题。数值结果表明,该方法在 Amazon EC2 上比现有方法快 1.5 倍,在计算节点性能变化较大时,可提高至五倍。