该研究提出了一种混合联邦学习算法(HFL),通过引入异步更新器和自适应延迟 SGD(AD-SGD)等方法,有效解决了异构优化问题中慢设备所带来的训练效率和学习效果不平衡的问题,且算法收敛速度为 $O (1/t+τ)$。
Feb, 2021
该论文提出了一种名为 LESSON 的方法,它通过选择不同频率上传模型的客户端来解决异质客户端设置下的延迟问题,加速收敛速度并避免模型过度拟合。模拟结果表明,LESSON 的收敛速度比 FedAvg 和 FedCS 更快,模型准确性比 FedCS 更高。
Oct, 2022
传统的联邦学习方法由于数据上传同步方式导致速度慢且不可靠,本论文提出了一种考虑不同更新贡献、适应数据延迟与异质性的异步联邦学习方法,有效提升了收敛速度。
Feb, 2024
本文提出了用于 Federated Learning 的一种新型抗 Straggler 算法,该算法结合客户端数据的统计特征,通过适应性选择客户端来加速学习过程并提高可伸缩性。我们的理论结果表明,相比于标准联邦基准,我们的方法对强凸目标能够获得速度提升,而我们的数值实验也证明了与联邦学习基准相比的显著加速。
Dec, 2020
该研究基于一项新的分类机制,综合分析和总结了现有各种异步 FL 范式,包括异构设备上的设备异构性、数据异构性、隐私和安全性,以及异构设备上的应用。该研究揭示了该领域面临的挑战并提出了潜在的研究方向。
Sep, 2021
提出了一种全新的异步架构的多服务器联邦学习系统,解决了同步通信导致的服务器空闲时间和单服务器成为瓶颈的问题,与之前的基线方法相比,收敛速度更快且在地理分布环境中所需时间减少了 61%。
Jun, 2024
本文提出了一种异步 FL 框架,其采用定期聚合的方式消除了 FL 系统中的问题,并设计出多种装置调度和更新聚合策略以解决异构计算能力和训练数据分布的设备问题。通过模拟结果,我们得出结论,异步 FL 的调度和聚合设计可以不同于同步情况,并且适当的 “年龄感知” 加权设计可以极大地提高此类系统的学习性能。
Jul, 2021
TimelyFL 是一个异步的 FL 框架,它具有自适应的部分训练能力,用于处理异构设备之间的差异和连接不可靠性。实验表明,与现有同类方法相比,它提高了参与率 21.13%,收敛率 1.28-2.89 倍,测试精度提高了 6.25%。
Apr, 2023
嵌套联邦学习(NeFL)是一种通用的框架,通过深层次和宽度缩放有效地将模型划分为子模型,解决分布式学习中迟滞者对训练时间和性能的影响。此框架将模型解释为求解普通微分方程(ODEs)的方式,并通过解耦少量参数来解决训练多个具有不同架构的子模型时出现的不一致性。通过一系列实验,我们证明了 NeFL 可以显著提高性能,并且与联邦学习领域的最新研究相一致。
Aug, 2023
本文提出了一种应用于多个下游任务的异步模型传输的联邦学习方法,通过引入调度张量来表征设备调度,并通过收敛性分析探究了资源分配、设备调度和个体模型状态等对机器学习性能的影响,进而通过非凸混合整数优化问题来调整资源分配和设备调度,以在能量消耗和性能之间达到高效平衡,并通过数值模拟揭示了该方法在模型性能和网络资源节约方面的优势。
May, 2023