Feb, 2024
FedLPS: 多任务异质联邦学习与本地参数共享
FedLPS: Heterogeneous Federated Learning for Multiple Tasks with Local
Parameter Sharing
TL;DR在本文中,我们提出了利用本地参数共享的异构联邦学习(FedLPS)来解决边缘计算环境中多任务部署和资源消耗不均匀问题,并通过模型剪枝算法和异构模型聚合算法来减少计算资源的消耗。实验证明,FedLPS相对于现有联邦学习框架在性能上有很大的提升,可以将计算资源的消耗降低21.3%。