Sep, 2023

基于基础模型与异构联邦学习的融合

TL;DR资源感知的联邦基础模型(RaFFM)引入了针对联邦学习场景的特殊模型压缩算法,实现对给定的基于 Transformer 的基础模型的动态缩放,以适应网络边缘的异构资源约束。实验结果表明,RaFFM 在资源利用效率上显示出显著优势,并使用较少的资源将基础模型部署到联邦学习中,虽然资源消耗较低,但经 RaFFM 优化的目标模型在自然语言处理和计算机视觉领域的各项任务中表现出与应用于全尺寸基础模型的传统联邦学习方法相当的性能。