Oct, 2023
通过通信压缩的分布式随机梯度下降在异构联邦学习中逃离鞍点
Escaping Saddle Points in Heterogeneous Federated Learning via
Distributed SGD with Communication Compression
TL;DR我们提出了一种名为Power-EF的算法,通过一种新颖的误差反馈方案,只传递经过压缩的信息,实现异构联邦学习中逃离鞍点的分布式和压缩的SGD算法,无需任何数据均匀性假设,并且在访问一阶(可能是鞍点)点之后,仅使用几乎与一阶收敛所需相同数量的梯度查询和通信轮次进一步提高到二阶稳定点,其收敛速度以工作器数量的线性加速度变化。