Sep, 2023

FedLALR:面向客户端的自适应学习速率实现非独立同分布数据的线性加速

TL;DR我们提出了一种名为FedLALR的异构本地AMSGrad变体,该方法通过基于本地历史梯度平方和同步学习率来调整每个客户端的学习率,理论分析表明我们的方法具有良好的收敛性和与客户端数量线性加速,这为联邦优化提供了可扩展性。我们还通过与其他几种通信高效的联邦优化方法进行了实证比较,在计算机视觉和自然语言处理任务上的广泛实验结果显示我们提出的FedLALR方法的有效性,并与我们的理论发现相吻合。