带有稀疏通信的联合 LoRA
通过提出一种新的基于复制的填充策略来解决传统的联邦低秩适应方法中的稳定性问题,以实现在联邦细调过程中更好地利用高质量数据集,加速收敛速度并提高全局模型的预测质量。
Jun, 2024
在隐私保护联邦学习中,本文提出了一种高效且有效的低秩适应方法 FFA-LoRA,通过固定非零矩阵并仅微调零矩阵,缓解了数据异构性、差分隐私增强噪声放大以及超参数敏感性等挑战,同时将通信成本减半,并在各种联邦学习任务中展现了更一致的性能和更好的计算效率。
Mar, 2024
在此研究中,我们展示了 Low-Rank Adaptation 方法在从头开始训练小尺寸视觉模型的联邦学习中的应用,通过提出一种聚合不可知方法 FLoCoRA,我们证明该方法能够减少通信成本 4.8 倍,并且对于具有 ResNet-8 模型的 CIFAR-10 分类任务的准确度损失小于 1%。同时,我们还展示了通过引入仿射量化方案扩展该方法,将通信成本缩减 18.6 倍,与标准方法相比,对于 ResNet-18 模型的测试仍然保持不到 1% 的准确度损失。我们的研究在消息大小减小方面提供了一个强有力的基准,甚至与传统的模型压缩方法相比,同时还减少了由于低秩适应所需的训练内存。
Jun, 2024
基于 LoRA 调优的计算和通信高效的模型异构个性化联邦学习框架(FedLoRA)为每个联邦学习客户端设计了一个同质化小适配器,从而使得客户端可以在不产生高计算和通信成本的情况下训练异构化的本地模型。FedLoRA 在两个真实数据集上的实验表明,它在测试准确性方面比六种最先进的基准方法表现更好,准确性提高了 1.35%,计算开销减少了 11.81 倍,通信成本降低了 7.41 倍。
Oct, 2023
通过减少可训练参数,我们提出了一种基于模拟退火的联邦学习与低秩适应(SA-FedLoRA)方法,旨在在大规模预训练模型的微调中实现更高的收敛性和通信效率。实验结果表明,SA-FedLoRA 在联邦学习中是一种高效的方法,相比 FedAvg,可以达到更好的性能,通信参数减少高达 93.62%。
May, 2024
FlexLoRA 是一种用于 LLM fine-tuning 的聚合方案,通过动态调整本地 LoRA 等级并使用奇异值分解(SVD)进行权重重新分配,充分利用了异构客户端资源。在涉及超过 1,600 个客户端执行多样化的自然语言处理(NLP)任务的实验中,证实了 FlexLoRA 的有效性,联邦全局模型在下游 NLP 任务性能方面平均提高了 3.1%。FlexLoRA 的实用性进一步强调了其与现有的基于 LoRA 的联邦学习方法的无缝集成和理论分析,提供了一种可扩展的、隐私保护的 LLM 联邦调整路径。
Feb, 2024
通过引入名为 Fast LoRA(FLoRA)的框架,我们可以有效地对多样化和全球用户群体的实时请求进行批处理,通过将每个输入示例与其独特的低秩适应权重关联起来,实现个性化的任务特定适应,从而缓解了 Low-Rank Adaptation (LoRA) 在处理多个任务特定适配器时的性能瓶颈。我们在包括 8 种语言的 MultiPL-E 代码生成基准和 6 种语言的多语种语音识别任务上,通过实证展示了 FLoRA 保持 LoRA 性能优点的竞争结果。
Dec, 2023
在对大规模预训练语言模型进行提升调优的过程中,我们通过引入稀疏低秩适应性的创新方法(SoRA),使得适应过程中能够动态地调整内在秩,从而提高 LoRA 的表现能力,同时通过更新稀疏方式高效地控制参数数量。实验结果表明,SoRA 在保留 70% 参数和训练时间的情况下,能够胜过其他基准模型。
Nov, 2023
本研究通过探索在语言任务中不同联邦学习设置中应用参数高效微调(PEFT)方法的机会和挑战,提出了一种名为 SLoRA 的方法,通过一种新颖的数据驱动初始化技术来克服在高异构数据环境中 LoRA 的关键限制,实现与全面微调可比的性能,并以大约 1% 的密度实现显著稀疏更新,同时将训练时间减少高达 90%。
Aug, 2023