As a prevalent distributed learning paradigm, federated learning (FL) trains
a global model on a massive amount of devices with infrequent communication.
This paper investigates a class of composite optimization
我们提出了一种新算法来解决复合联合学习问题,该算法通过策略性地分离近端算子和通信来管理非光滑正则化,并且在没有关于数据相似性的任何假设的情况下解决客户端漂移。此外,每个工作者使用局部更新来降低与服务器的通信频率,并每次通信轮传输仅一个 d 维向量。我们证明了我们的算法线性收敛到最优解的邻域,并在数值实验中展示了我们算法相对于最先进的方法的优越性。