FwdLLM 是一种创新的 FL 协议,通过无需执行误差反向传播训练方法的方式,在手机设备上实现了更好的内存效率和时间效率,具有比传统方法更快的收敛速度和更小的内存占用。
Aug, 2023
通过硬件为中心的方法,本研究探讨了如何将大型语言模型 (LLMs) 应用于现代边缘计算系统,并使用联邦学习 (FL) 对 FLAN-T5 模型家族进行微调,以进行文本摘要任务。通过与数据中心 GPU 的比较,我们评估了边缘计算系统的当前能力以及它们在 LLM FL 工作负载方面的潜力,并展示了在边缘端实现更大计算效率的潜力与下一步的发展方向。
Oct, 2023
在联邦学习设置中,本文讨论了联邦微调语言模型 (LLMs) 的挑战,并引入了我们的 FS-LLM 软件包作为主要贡献,该软件包提供了全面的联邦参数高效微调算法实现和通用的编程接口,以实现低通信和计算成本的联邦学习场景。同时,本文进行了大量实验证明了 FS-LLM 的有效性,并为研究社区提供了有关联邦微调语言模型的宝贵见解。
Sep, 2023
基于大型语言模型的联邦学习方法,在无线网络中解决了隐私和安全保护机制不足的问题,并通过两种个性化无线联邦微调方法实现了低通信开销。
Apr, 2024
使用零阶优化技术以及一组随机种子,FedKSeed 提出了一种新颖的方法来在设备上直接对十亿级别的预训练大型语言模型进行联邦全参数调整,从而显著减少了服务器和客户端之间的传输需求,并通过策略评估 ZOO 扰动的显著性,提升模型准确度,我们的实验证明该方法在通信效率和新任务泛化方面优于已有的联邦预训练大型语言模型调整方法。
Dec, 2023
FlexLoRA 是一种用于 LLM fine-tuning 的聚合方案,通过动态调整本地 LoRA 等级并使用奇异值分解(SVD)进行权重重新分配,充分利用了异构客户端资源。在涉及超过 1,600 个客户端执行多样化的自然语言处理(NLP)任务的实验中,证实了 FlexLoRA 的有效性,联邦全局模型在下游 NLP 任务性能方面平均提高了 3.1%。FlexLoRA 的实用性进一步强调了其与现有的基于 LoRA 的联邦学习方法的无缝集成和理论分析,提供了一种可扩展的、隐私保护的 LLM 联邦调整路径。
Feb, 2024
提出了联邦式大规模语言模型(LLM)的概念,并讨论了其三个关键组成部分:联邦式 LLM 预训练、联邦式 LLM 微调和联邦式 LLM 提示工程。还探讨了联邦学习和大规模语言模型整合所带来的新挑战,并分析了现有解决方案和潜在障碍。
Jul, 2023
通过联邦学习方法,本文提出了第一个高效、有效的联邦法律大型语言模型(FedJudge)框架,用于在保护数据隐私的前提下,实现对法律大型语言模型的本地调优。
通过使用自动联邦化管道(FedPipe),我们设计和实现了一种在最小化训练成本的同时不增加推理延迟的联邦学习方法来对大语言模型进行微调,从而加速模型训练并获得比最先进基准更高的准确性。
通过联邦学习的方式,利用分布式私有数据进行协作和隐私保护的大型语言模型(LLM)培训,相较于传统的本地培训方式,取得了明显的性能提升。