Oct, 2023
每个参数都很重要:确保联邦学习与动态异构模型的收敛性
Every Parameter Matters: Ensuring the Convergence of Federated Learning
with Dynamic Heterogeneous Models Reduction
TL;DR通过在线模型提取,本文提出了一个统一的异构联邦学习算法框架,并进行了一般性的收敛性分析,证明了在某些充分条件下,这些算法对于标准异构联邦学习的一般光滑成本函数会收敛于一个静止点。此外,还阐明了影响收敛的两个关键因素:模型提取噪音和最小覆盖指数,强调了局部模型提取的联合设计在高效异构联邦学习中的重要性。