May, 2024
在客户端上进行修剪而不是服务器:在联邦学习中加速稀疏训练
Prune at the Clients, Not the Server: Accelerated Sparse Training in Federated Learning
Georg Meinhardt, Kai Yi, Laurent Condat, Peter Richtárik
TL;DR该研究论文介绍了稀疏训练和加速通信在 Federated Learning 中的整合方法 Sparse-ProxSkip,并在大量实验证明了其良好性能。