联邦学习是机器学习领域中迅速发展的领域,允许数据在多个分散设备上进行训练。客户端选择是整个系统性能的关键因素。本调查综述了联邦学习中最先进的客户端选择技术,包括它们的优点、局限性以及需解决的挑战和开放问题。我们涵盖了传统的选择技术,例如随机选择,其中选择所有或部分随机的客户端进行训练。我们还涵盖了面向性能和面向资源的选择,适用于资源受限和异构网络。我们还讨论了客户端选择在模型安全增强中的使用。最后,我们讨论了动态约束和异构网络中的客户端选择相关的开放问题和挑战。
Nov, 2023
该研究系统综述了联邦学习中客户端选择的挑战、解决方案和评估指标,研究发现主要挑战为异构性、资源分配、通讯成本和公平性,常用的解决方案是改进随机选择算法并评估测试准确率与通讯轮数之间的关系。
Jun, 2023
通过 Lyapunov 优化的公平感知联邦用户选择(FairFedCS)方法可以在联邦学习中动态调整联邦用户的选择概率,根据联邦用户的声誉、参与联邦任务的次数和对最终模型性能的贡献,共同考虑性能和公平性。在真实的多媒体数据集上进行的大量实验表明,FairFedCS 平均实现了 19.6% 更高的公平性和 0.73% 更高的测试准确性,超过了最佳性能的现有方法。
Jul, 2023
基于区块链、智能合约和同态加密技术,设计了一种保护数据隐私的联邦学习框架,实现了分散化的训练过程,并取得了较高的准确率。
介绍了一种名为 FilFL 的方法,它是一种优化联邦学习中客户端选择和训练的新方法,它首先通过选择最大化特定目标函数的子集来过滤活跃的客户端,然后应用客户端选择方法。经验结果表明,该方法具有诸多优势,包括提高学习效率、加速收敛、提高测试准确率等方面。
Feb, 2023
本研究考虑了在波动性环境下客户端选择问题,旨在在有效参与和公平性的联合考虑下解决权衡问题,提出 E3CS 方案以解决此问题,并通过实验验证其有效性。
Nov, 2020
该研究提出了一种新的算法,为参与联邦学习训练的客户分配自适应聚合权重,识别出最有利于特定学习目标的数据分布,实验证明通过该算法引导的合作在传统的联邦学习方法上取得了更好的表现,强调了客户选择的重要性。
Feb, 2024
本研究旨在解决联邦学习中由于客户端选择方案带来的模型更新差异性过大所导致的收敛速度慢的问题,并提出了一种基于聚类的客户端选择方案,通过方差约减来加速参与方的收敛速度。实验结果表明,该方案的效率超过了其他替代方案。
Aug, 2022
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
联邦学习是一种机器学习范式,其中多个客户端通过利用私有数据来优化单一全局模型。本研究提出了一种基于高级特征进行一次聚类的客户端抽样策略,以在每一轮中实现分层的客户端抽样,以减少噪音并显著提高全局模型的收敛率,并显著减少了达到目标准确性所需的通信轮次。
Dec, 2023