Jul, 2024
分布式优化加速:基于原始对偶视角的局部步骤
Accelerating Distributed Optimization: A Primal-Dual Perspective on
Local Steps
TL;DR在分布式机器学习中,有效地进行具有不同数据分布的多个代理的训练面临着重大挑战。本研究解决了分布式优化问题中的集中式和分散式设置,并提出了一种基于原始对偶方法的新方法,即(加速)梯度上升的多随机梯度下降(GA-MSGD),它自然地融合了本地更新,实现了线性收敛,并且几乎达到了最优的通信复杂性。