Mar, 2024

数据异构下去中心化学习的本地更新有效性

TL;DR在本文中,我们研究了两种基础的分散式优化方法:分散式梯度跟踪(DGT)和分散式梯度下降(DGD),并考虑了多次本地更新。我们证明了增加本地更新步骤可以降低通信复杂性,并揭示了通信与计算之间的权衡关系。在数据异质性较低且网络连接良好时,增加本地更新可以有效降低通信成本。我们还证明了在超参数化的情况下,即使没有梯度修正,DGD中使用本地更新也可以降低通信复杂性。数值实验验证了我们的理论结果。