面向异构通信的联邦低秩自适应
在联邦学习中,通过应用稀疏性来提高 Low-rank adaptation (LoRA) 的通信效率,而不影响其性能,并且相对于现有方法具有更好的异质性和隐私保护。
Jun, 2024
在隐私保护联邦学习中,本文提出了一种高效且有效的低秩适应方法 FFA-LoRA,通过固定非零矩阵并仅微调零矩阵,缓解了数据异构性、差分隐私增强噪声放大以及超参数敏感性等挑战,同时将通信成本减半,并在各种联邦学习任务中展现了更一致的性能和更好的计算效率。
Mar, 2024
通过引入名为 Fast LoRA(FLoRA)的框架,我们可以有效地对多样化和全球用户群体的实时请求进行批处理,通过将每个输入示例与其独特的低秩适应权重关联起来,实现个性化的任务特定适应,从而缓解了 Low-Rank Adaptation (LoRA) 在处理多个任务特定适配器时的性能瓶颈。我们在包括 8 种语言的 MultiPL-E 代码生成基准和 6 种语言的多语种语音识别任务上,通过实证展示了 FLoRA 保持 LoRA 性能优点的竞争结果。
Dec, 2023
在此研究中,我们展示了 Low-Rank Adaptation 方法在从头开始训练小尺寸视觉模型的联邦学习中的应用,通过提出一种聚合不可知方法 FLoCoRA,我们证明该方法能够减少通信成本 4.8 倍,并且对于具有 ResNet-8 模型的 CIFAR-10 分类任务的准确度损失小于 1%。同时,我们还展示了通过引入仿射量化方案扩展该方法,将通信成本缩减 18.6 倍,与标准方法相比,对于 ResNet-18 模型的测试仍然保持不到 1% 的准确度损失。我们的研究在消息大小减小方面提供了一个强有力的基准,甚至与传统的模型压缩方法相比,同时还减少了由于低秩适应所需的训练内存。
Jun, 2024
使用低秩适应(LoRA)参数有效的微调方法,通过分析其表达能力和近似误差,证明了 LoRA 方法能够将预训练模型适应到较小目标模型,并适用于全连接神经网络和 Transformer 网络。
Oct, 2023
我们介绍了 HeteroLoRA,这是一种轻量级的搜索算法,通过利用零成本代理在模型中分配有限的 LoRA 可训练参数,以提高微调性能,并在更具挑战性的搜索空间中展示了 HeteroLoRA 的有效性。
Jun, 2024
基于 LoRA 调优的计算和通信高效的模型异构个性化联邦学习框架(FedLoRA)为每个联邦学习客户端设计了一个同质化小适配器,从而使得客户端可以在不产生高计算和通信成本的情况下训练异构化的本地模型。FedLoRA 在两个真实数据集上的实验表明,它在测试准确性方面比六种最先进的基准方法表现更好,准确性提高了 1.35%,计算开销减少了 11.81 倍,通信成本降低了 7.41 倍。
Oct, 2023
在对大规模预训练语言模型进行提升调优的过程中,我们通过引入稀疏低秩适应性的创新方法(SoRA),使得适应过程中能够动态地调整内在秩,从而提高 LoRA 的表现能力,同时通过更新稀疏方式高效地控制参数数量。实验结果表明,SoRA 在保留 70% 参数和训练时间的情况下,能够胜过其他基准模型。
Nov, 2023
提出了一种适用于资源受限和异构设备的参数高效的基于异构低秩近似的本地设备上基金会模型(ODFMs)的联邦微调方法,通过在客户端间采用异构秩以消除同质化呈现性的缺点,结合高秩和低秩近似的优点,加速了收敛速度和最终性能,并保护数据隐私。
Jan, 2024
通过减少可训练参数,我们提出了一种基于模拟退火的联邦学习与低秩适应(SA-FedLoRA)方法,旨在在大规模预训练模型的微调中实现更高的收敛性和通信效率。实验结果表明,SA-FedLoRA 在联邦学习中是一种高效的方法,相比 FedAvg,可以达到更好的性能,通信参数减少高达 93.62%。
May, 2024