Sep, 2023

FedLALR:面向客户端的自适应学习速率实现非独立同分布数据的线性加速

TL;DR我们提出了一种名为 FedLALR 的异构本地 AMSGrad 变体,该方法通过基于本地历史梯度平方和同步学习率来调整每个客户端的学习率,理论分析表明我们的方法具有良好的收敛性和与客户端数量线性加速,这为联邦优化提供了可扩展性。我们还通过与其他几种通信高效的联邦优化方法进行了实证比较,在计算机视觉和自然语言处理任务上的广泛实验结果显示我们提出的 FedLALR 方法的有效性,并与我们的理论发现相吻合。