Jun, 2023

动量方法可简单并明确地获得非独立同分布联邦学习的好处

TL;DR本文介绍了在联邦学习中引入动量的方法,以提高 FedAvg 和 SCAFFOLD 算法的性能,并成功证明了在所有的客户端参与训练的情况下,利用动量可以使 FedAvg 算法收敛,而在部分客户端参与训练时,利用动量可以使 SCAFFOLD 算法更快地收敛。此外,文章提出了新的方差缩减扩展,展现出最先进的收敛速度。