AAAIFeb, 2024

FedLPS: 多任务异质联邦学习与本地参数共享

TL;DR在本文中,我们提出了利用本地参数共享的异构联邦学习(FedLPS)来解决边缘计算环境中多任务部署和资源消耗不均匀问题,并通过模型剪枝算法和异构模型聚合算法来减少计算资源的消耗。实验证明,FedLPS 相对于现有联邦学习框架在性能上有很大的提升,可以将计算资源的消耗降低 21.3%。