Feb, 2024

FedBRB:设备异构联邦学习中小到大场景的有效解决方案

TL;DR最近,大型模型的成功展示了扩大模型规模的重要性,这在联邦学习的视角下激发了对大规模模型的协同训练的兴趣。由于计算约束,许多机构在本地训练大规模模型时面临困难。因此,只使用较小的本地模型训练更大的全局模型已成为重要的场景。尽管最近的设备异构联邦学习方法开始探索此领域,但它们在完全覆盖全局模型的参数空间方面存在局限性。本文提出了一种基于块概念的方法 FedBRB(块级滚动和加权广播)。FedBRB 可以使用小型本地模型训练大型全局模型的所有块,并将训练参数广播到整个空间以实现更快的信息交互。实验表明 FedBRB 在此场景中取得了显著的性能提升,达到了最先进的结果。此外,仅使用较小的本地模型的 FedBRB 甚至可以超越使用较大本地模型的基线。