FedRA: 异构客户端释放联邦调整的力量的随机分配策略
本研究提出了一种资源自适应异步联邦学习算法 (Fed-RAA),通过根据计算和通信能力分配全局模型的片段给不同的参与客户端,从而解决异构资源下的联邦学习问题。该方法在理论上证实了收敛性,并设计了一种基于贪心算法的在线分配策略,与离线策略相比具有可比拟的公平性。通过对 MNIST、CIFAR-10 和 CIFAR-100 的实验结果以及对比和消融研究,证明了本研究的优势。据我们所知,该论文是首个具备理论收敛保证的资源自适应异步的基于片段的联邦学习方法。
Jun, 2024
基于 LoRA 调优的计算和通信高效的模型异构个性化联邦学习框架(FedLoRA)为每个联邦学习客户端设计了一个同质化小适配器,从而使得客户端可以在不产生高计算和通信成本的情况下训练异构化的本地模型。FedLoRA 在两个真实数据集上的实验表明,它在测试准确性方面比六种最先进的基准方法表现更好,准确性提高了 1.35%,计算开销减少了 11.81 倍,通信成本降低了 7.41 倍。
Oct, 2023
通过减少可训练参数,我们提出了一种基于模拟退火的联邦学习与低秩适应(SA-FedLoRA)方法,旨在在大规模预训练模型的微调中实现更高的收敛性和通信效率。实验结果表明,SA-FedLoRA 在联邦学习中是一种高效的方法,相比 FedAvg,可以达到更好的性能,通信参数减少高达 93.62%。
May, 2024
FlexLoRA 是一种用于 LLM fine-tuning 的聚合方案,通过动态调整本地 LoRA 等级并使用奇异值分解(SVD)进行权重重新分配,充分利用了异构客户端资源。在涉及超过 1,600 个客户端执行多样化的自然语言处理(NLP)任务的实验中,证实了 FlexLoRA 的有效性,联邦全局模型在下游 NLP 任务性能方面平均提高了 3.1%。FlexLoRA 的实用性进一步强调了其与现有的基于 LoRA 的联邦学习方法的无缝集成和理论分析,提供了一种可扩展的、隐私保护的 LLM 联邦调整路径。
Feb, 2024
通过提出一种新的基于复制的填充策略来解决传统的联邦低秩适应方法中的稳定性问题,以实现在联邦细调过程中更好地利用高质量数据集,加速收敛速度并提高全局模型的预测质量。
Jun, 2024
资源感知的联邦基础模型(RaFFM)引入了针对联邦学习场景的特殊模型压缩算法,实现对给定的基于 Transformer 的基础模型的动态缩放,以适应网络边缘的异构资源约束。实验结果表明,RaFFM 在资源利用效率上显示出显著优势,并使用较少的资源将基础模型部署到联邦学习中,虽然资源消耗较低,但经 RaFFM 优化的目标模型在自然语言处理和计算机视觉领域的各项任务中表现出与应用于全尺寸基础模型的传统联邦学习方法相当的性能。
Sep, 2023
基于预训练语言模型 (PLMs) 的联邦学习 (federated learning) 中,引入参数高效微调 (PEFT) 方法,通过奇异值分解 (SVD) 初始化适配器模块的 FeDeRA,在多个任务和数据集上实验,与全参数微调 (FT) 方法相比,FeDeRA 表现出色,训练时间显著缩短。
Apr, 2024
我们提出了一种名为 FedLALR 的异构本地 AMSGrad 变体,该方法通过基于本地历史梯度平方和同步学习率来调整每个客户端的学习率,理论分析表明我们的方法具有良好的收敛性和与客户端数量线性加速,这为联邦优化提供了可扩展性。我们还通过与其他几种通信高效的联邦优化方法进行了实证比较,在计算机视觉和自然语言处理任务上的广泛实验结果显示我们提出的 FedLALR 方法的有效性,并与我们的理论发现相吻合。
Sep, 2023
在隐私保护联邦学习中,本文提出了一种高效且有效的低秩适应方法 FFA-LoRA,通过固定非零矩阵并仅微调零矩阵,缓解了数据异构性、差分隐私增强噪声放大以及超参数敏感性等挑战,同时将通信成本减半,并在各种联邦学习任务中展现了更一致的性能和更好的计算效率。
Mar, 2024
传统的联邦学习方法对计算和通信能力不同的客户端的支持有限,导致模型训练的低效和潜在的不准确性。本文引入了具有灵活架构的联邦学习算法(FedFA),允许客户端选择适合其资源的网络架构,通过层嫁接技术和可扩展聚合方法,实现了客户端贡献的统一集成和对抗性能降低的增强。
Jun, 2024