联邦学习中的负载平衡
本文以联邦学习为背景,提出一种联合带宽分配和设备调度问题的解决方案,该方案通过一个贪心算法和运行时间预算中定向分配宽带的优化模型实现,从而在模型精度和训练时间预算方面实现了最好的性能表现。
Nov, 2019
本文提出了一种异步FL框架,其采用定期聚合的方式消除了FL系统中的问题,并设计出多种装置调度和更新聚合策略以解决异构计算能力和训练数据分布的设备问题。通过模拟结果,我们得出结论,异步FL的调度和聚合设计可以不同于同步情况,并且适当的“年龄感知”加权设计可以极大地提高此类系统的学习性能。
Jul, 2021
本文提出了一种基于多目标优化的联邦学习框架,通过优化一个最大替代函数将不同本地客户端(数据源)的算法公平性和一致性纳入考虑,以实现最优解的 Pareto 优化来实现公平性和一致性。
Aug, 2021
提出了一种叫作FedPrune的系统,通过剪枝全局模型来解决Federated learning中的系统异构和统计异构所引起的问题,并利用中心极限定理的洞见来实现在非独立同分布数据上的强健性性能,并与Federated Averaging相比,FedPrune提供了更好的鲁棒性和公平性。
Oct, 2021
本文提出了一种应用于多个下游任务的异步模型传输的联邦学习方法,通过引入调度张量来表征设备调度,并通过收敛性分析探究了资源分配、设备调度和个体模型状态等对机器学习性能的影响,进而通过非凸混合整数优化问题来调整资源分配和设备调度,以在能量消耗和性能之间达到高效平衡,并通过数值模拟揭示了该方法在模型性能和网络资源节约方面的优势。
May, 2023
分布式机器学习模式中的分布式学习是指许多客户端与中央服务器协同工作,以学习模型而无需共享自己的训练数据。本文介绍了一种采用随机梯度下降算法的分散式联邦学习(DFL)模型,作为一种更可伸缩的方法,以改善带有任意拓扑结构的代理网络中的学习性能。针对客户端和并行服务器之间的通信,提出了三种DFL调度策略,并在完全分散的SGD实现中对收敛性、准确性和损失进行了测试。实验结果表明所提出的调度策略对收敛速度和最终全局模型均有影响。
Nov, 2023
基于Lyapunov优化,提出了首个公平感知的联邦作业调度(FairFedJS)方法,确保对高需求的联邦学习客户端数据集进行公平分配,以防止长时间等待。通过在两个数据集上与四种最先进的方法进行广泛实验证明,相较于最佳基准线,其在调度公平性和收敛时间方面分别提高了31.9%和1.0%,同时实现了可比较的测试准确性。
Jan, 2024
在大规模FL环境中,本研究旨在研究客户端选择算法的开销,并提出一种高效的数据分布摘要计算算法来减少开销。评估结果显示,我们的解决方案在数据摘要时间上能够实现30倍的降低,聚类时间上能够实现360倍的降低。
Jun, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024