BriefGPT.xyz
Ask
alpha
关键词
decentralized gradient tracking
搜索结果 - 1
数据异构下去中心化学习的本地更新有效性
在本文中,我们研究了两种基础的分散式优化方法:分散式梯度跟踪(DGT)和分散式梯度下降(DGD),并考虑了多次本地更新。我们证明了增加本地更新步骤可以降低通信复杂性,并揭示了通信与计算之间的权衡关系。在数据异质性较低且网络连接良好时,增加本
→
PDF
3 months ago
Prev
Next