大型语言模型的参数高效微调的自动联合管道
通过硬件为中心的方法,本研究探讨了如何将大型语言模型 (LLMs) 应用于现代边缘计算系统,并使用联邦学习 (FL) 对 FLAN-T5 模型家族进行微调,以进行文本摘要任务。通过与数据中心 GPU 的比较,我们评估了边缘计算系统的当前能力以及它们在 LLM FL 工作负载方面的潜力,并展示了在边缘端实现更大计算效率的潜力与下一步的发展方向。
Oct, 2023
在联邦学习设置中,本文讨论了联邦微调语言模型 (LLMs) 的挑战,并引入了我们的 FS-LLM 软件包作为主要贡献,该软件包提供了全面的联邦参数高效微调算法实现和通用的编程接口,以实现低通信和计算成本的联邦学习场景。同时,本文进行了大量实验证明了 FS-LLM 的有效性,并为研究社区提供了有关联邦微调语言模型的宝贵见解。
Sep, 2023
本文旨在探讨如何在隐私保护的前提下,同时减少通信开销和本地模型适应成本,在联邦学习范式下提高微调预训练语言模型效率和性能,为此我们引入了多种参数节约的微调方法(PETuning),并提供了适用于各种实验条件的实证研究和联邦微调框架 FedPETuning。
Dec, 2022
本研究提出了一种创新方法来压缩梯度以提高大型语言模型联邦学习中的通信效率,通过在客户端增加编码器以获取压缩的梯度特征,以及在服务器端增加解码器来重构梯度。通过使用特征筛选和保护关键特征的方式,我们的方法降低了通信成本并提高了性能,在隐私保护框架内进行了一系列实验分析,为开发更高效和安全的大型语言模型提供了洞见。
May, 2024
该研究引入了一种名为 FedCyBGD 的新方法,利用 Cycle Block Gradient Descent 来高效地在联邦学习中训练和微调大语言模型,从而减少资源消耗,并取得了最先进的 FL LLM 训练表现。
Jun, 2024
在联邦学习中,我们提出了一种资源高效的大型语言模型细调方法,通过引入压缩模型和适配器的概念,在减少资源消耗的同时实现与全模型可比的性能水平。
Jun, 2024
提出了联邦式大规模语言模型(LLM)的概念,并讨论了其三个关键组成部分:联邦式 LLM 预训练、联邦式 LLM 微调和联邦式 LLM 提示工程。还探讨了联邦学习和大规模语言模型整合所带来的新挑战,并分析了现有解决方案和潜在障碍。
Jul, 2023
FwdLLM 是一种创新的 FL 协议,通过无需执行误差反向传播训练方法的方式,在手机设备上实现了更好的内存效率和时间效率,具有比传统方法更快的收敛速度和更小的内存占用。
Aug, 2023
使用零阶优化技术以及一组随机种子,FedKSeed 提出了一种新颖的方法来在设备上直接对十亿级别的预训练大型语言模型进行联邦全参数调整,从而显著减少了服务器和客户端之间的传输需求,并通过策略评估 ZOO 扰动的显著性,提升模型准确度,我们的实验证明该方法在通信效率和新任务泛化方面优于已有的联邦预训练大型语言模型调整方法。
Dec, 2023