ICMLJun, 2022
DisPFL:去中心化稀疏训练,实现通信高效的个性化联邦学习
DisPFL: Towards Communication-Efficient Personalized Federated Learning via Decentralized Sparse Training
Rong Dai, Li Shen, Fengxiang He, Xinmei Tian, Dacheng Tao
TL;DR提出了一种基于去中心化通信协议的个性化联邦学习框架,利用个性化稀疏掩码为每个用户的本地模型进行定制,进一步节省通信和计算成本,并在不同复杂度的本地客户端上达到更好的个性化性能。