Dec, 2021

联邦动态稀疏训练:计算更少,通信更少,但学习效果更佳

TL;DR本文提出了一种称为 Federated Dynamic Sparse Training(FedDST)的 novel FL 框架,旨在动态提取和训练目标网络中的稀疏子网络,并实现了在设备计算和网络通信方面的高效,相对于固定稀疏掩模的方法,它在本地异质性适应和 FL 性能方面具有较大的优势,在非 i.i.d FL 设置下,FedDST 在数据传输上的表现显著优于竞争性算法。