Dec, 2021
联邦动态稀疏训练:计算更少,通信更少,但学习效果更佳
Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better
TL;DR本文提出了一种称为Federated Dynamic Sparse Training(FedDST)的novel FL框架,旨在动态提取和训练目标网络中的稀疏子网络,并实现了在设备计算和网络通信方面的高效,相对于固定稀疏掩模的方法,它在本地异质性适应和FL性能方面具有较大的优势,在非i.i.d FL设置下,FedDST在数据传输上的表现显著优于竞争性算法。