Feb, 2024

异构语言任务和客户资源下的分布式大型语言模型微调

TL;DRFlexLoRA 是一种用于 LLM fine-tuning 的聚合方案,通过动态调整本地 LoRA 等级并使用奇异值分解(SVD)进行权重重新分配,充分利用了异构客户端资源。在涉及超过 1,600 个客户端执行多样化的自然语言处理(NLP)任务的实验中,证实了 FlexLoRA 的有效性,联邦全局模型在下游 NLP 任务性能方面平均提高了 3.1%。FlexLoRA 的实用性进一步强调了其与现有的基于 LoRA 的联邦学习方法的无缝集成和理论分析,提供了一种可扩展的、隐私保护的 LLM 联邦调整路径。