ICLRJun, 2020
随时小批量:利用在线分布式优化中的滞后者
Anytime MiniBatch: Exploiting Stragglers in Online Distributed Optimization
Nuwan Ferdinand, Haider Al-Lawati, Stark C. Draper, Matthew Nokleby
TL;DR本研究提出了一种名为 Anytime Minibatch 的在线分布式优化方法,其通过多轮共识平均其最小批量梯度来更新主变量,以减轻节点处理速度不均导致的进度缓慢问题。数值结果表明,该方法在 Amazon EC2 上比现有方法快 1.5 倍,在计算节点性能变化较大时,可提高至五倍。