May, 2024

在客户端上进行修剪而不是服务器:在联邦学习中加速稀疏训练

TL;DR该研究论文介绍了稀疏训练和加速通信在Federated Learning中的整合方法Sparse-ProxSkip,并在大量实验证明了其良好性能。