FLrce: 基于关系的客户选择和提前停止策略的高效联邦学习
Federated Learning 通过自适应成本感知的客户端选择策略优化任意成本指标,将资源效率提高到时间 - 准确性之间的最优化问题解决掉,并通过设计碳效率的 Federated Learning 模型,以其能耗的碳排放强度为成本,在减少碳排放和训练时间方面具有显著的优势。
Oct, 2023
在本文中,我们提出了一种名为 RE-FL 的新方法,该方法解决了资源受限设备中计算和通信挑战的问题。我们的可变修剪技术通过根据每个客户端的计算能力进行修剪来优化资源利用。我们还使用知识蒸馏来减少带宽消耗和通信轮次。对图像分类任务的实验结果证明了我们的方法在资源受限环境中保持数据隐私和性能的有效性,同时适应了异构模型架构。
Aug, 2023
采用两种新策略(global model 压缩和 Federated Dropout)和现有压缩方法的结合,可以综合降低联邦学习对服务器到客户端通信的成本高达 14 倍、本地计算量 1.7 倍并在上传通信方面降低 28 倍,同时不降低最终模型的质量,从而全面降低了联邦学习对客户端设备资源的影响。
Dec, 2018
FL-FDMS 是一种解决了分布式机器学习框架中部分参与中的客户端退出问题的算法,能够使用朋友节点的本地更新来代替退出客户端的数据,从而提高算法的性能和效率。
May, 2022
通过部分训练模型的策略,我们提出并评估了一种受迁移学习启发的联邦学习策略,以减少设备上的资源利用、服务器负载和网络负担,从而加速训练过程,有效利用设备资源,并在不影响全局模型准确性的情况下减少数据传输约 75% 和 53%。
Sep, 2023
本文提出了一种新的众包框架来解决分散式学习中的通信效率问题,并通过制定参与客户端的准入控制方案来保证其本地准确性水平。通过基于激励和 Stackelberg 游戏等模型的分析与模拟实验,证明了该方案的有效性。
Nov, 2019
在大规模 FL 环境中,本研究旨在研究客户端选择算法的开销,并提出一种高效的数据分布摘要计算算法来减少开销。评估结果显示,我们的解决方案在数据摘要时间上能够实现 30 倍的降低,聚类时间上能够实现 360 倍的降低。
Jun, 2024
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
Federated Learning aims to train a global model by utilizing decentralized data, but the highly dynamic networks of edge devices can cause delays and degrade the efficiency of the training process. To address this, DynamicFL is proposed as a novel framework that considers communication dynamics, data quality, and client selection strategies to improve system performance and achieve better model accuracy.
Jul, 2023
本研究提出了一种新的通信高效的联邦学习(FL)框架 FedCliP,采用自适应学习算法确定参与模型训练的客户端,通过优化算法减少不必要的通信开销。实验结果显示该框架在 MNIST、FMNIST 和 CIFAR-10 等数据集上优于目前的 FL 框架。
Jan, 2023