非联邦多任务分割学习的异构源
本文提出名为HeteroFL的新型联邦学习框架,旨在解决具有非常不同计算和通信能力的异构客户端的问题,并通过几种策略增强FL训练。通过在三个数据集上进行五个计算复杂性级别的三种模型架构的广泛实证评估,通过自适应分配子网络来提高FL训练的计算和通信效率。
Oct, 2020
本文提出了一种叫做FedAlign的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的FL方法相当的精度。
Nov, 2021
提出了一种新的联邦学习方法FedIN,支持异构模型和IN训练,并通过凸优化问题解决了梯度分歧问题。实验结果表明,在异构模型环境下,FedIN相比目前先进的算法表现最佳。
Apr, 2023
提出一种用于协调和训练多个同时进行的联邦学习任务的系统,名为MAS(Merge and Split),通过多任务架构将多个任务合并为一个任务进行训练,并根据任务之间的亲和度在训练过程中将其拆分成两个或更多任务继续训练,实验证明MAS方法在性能优化方面胜过其他方法,同时减少训练时间2倍并降低40%的能源消耗。
Jul, 2023
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非IID数据分布中实现了高性能。
Aug, 2023
提出了FedSplitX,一种面对异构系统的新型联合学习框架,能够有效地利用服务器资源来训练大模型,从而在模型性能上优于基准方法。
Oct, 2023
动态分层联邦学习系统可以通过利用分层学习的概念,将全局模型的不同部分分配给不同层次的客户端,并通过基于本地损失的训练使每个客户端可以并行更新模型,从而减少资源受限设备上计算和通信的需求,缓解迟到问题,从而显著减少训练时间并保持模型准确性。
Dec, 2023
在本文中,我们提出了利用本地参数共享的异构联邦学习(FedLPS)来解决边缘计算环境中多任务部署和资源消耗不均匀问题,并通过模型剪枝算法和异构模型聚合算法来减少计算资源的消耗。实验证明,FedLPS相对于现有联邦学习框架在性能上有很大的提升,可以将计算资源的消耗降低21.3%。
Feb, 2024
对于高度异构的数据,在并行联邦式DE in the literature, and this paper aims to fill this gap. The analysis of SFL can be more challenging than that of federated learning (FL), due to the potential dual-paced updates at the clients and the main server. We provide convergence analysis of SFL for strongly convex and general convex objectives on heterogeneous data.
Feb, 2024
我们提出了一种高效的分布式联合学习算法(ESFL),通过在服务器和终端设备之间将模型分割为不同的子模型,综合考虑用户异构性,同时优化用户端工作量和服务器端计算资源分配,以充分利用中央服务器的强大计算能力。与标准的联合学习、分割学习和分割联合学习相比,通过大量模拟实验证明我们的ESFL方法显著提高了效率。
Feb, 2024