朋友助力:拯救联邦学习于客户端退出
本文提出了一种名为 FedCLG 的新算法,它可以在类似于混合 FL 的情形下防止部分参与的限制,同时保护客户隐私并实现模型聚合。数值实验表明,该算法胜过现有方法。
Apr, 2023
本文利用编码理论来提高跨设备联合学习中的 Federated Dropout(FD)算法的训练精度,实现了较高的训练速度和与无 Dropout 情况下相同的最终精度,并在 EMNIST 数据集上取得了很好的效果。
Jan, 2022
本文提出一种名为 Federated dropout (FedDrop) 的联邦式学习方案,该方案利用经典的 dropout 算法进行随机模型修剪。该方案可在减少通信开销和设备计算负载的同时,表现出比传统的 FL 和具有相同概率的子网的 FL 方案更好的效果。
Sep, 2021
该研究提出了一种新的算法,为参与联邦学习训练的客户分配自适应聚合权重,识别出最有利于特定学习目标的数据分布,实验证明通过该算法引导的合作在传统的联邦学习方法上取得了更好的表现,强调了客户选择的重要性。
Feb, 2024
EmbracingFL 是一种分布式学习方法,基于一种新型的部分模型训练方法,允许所有可用的客户端参与分布式训练,改进了 Federated Learning 的效率。
Jun, 2024
我们提出了一种名为 Partial Federated Learning (PartialFL) 的新算法,该算法使用一部分数据模态或其中间表示来训练机器学习模型,并通过禁止数据标签传送到云端进行模型训练以提高隐私保护效果,我们在两个不同的多模态数据集上评估了我们的方法,并展示了有希望的结果。
Mar, 2024
联邦学习是一种机器学习范式,其中多个客户端通过利用私有数据来优化单一全局模型。本研究提出了一种基于高级特征进行一次聚类的客户端抽样策略,以在每一轮中实现分层的客户端抽样,以减少噪音并显著提高全局模型的收敛率,并显著减少了达到目标准确性所需的通信轮次。
Dec, 2023
联邦学习是机器学习领域中迅速发展的领域,允许数据在多个分散设备上进行训练。客户端选择是整个系统性能的关键因素。本调查综述了联邦学习中最先进的客户端选择技术,包括它们的优点、局限性以及需解决的挑战和开放问题。我们涵盖了传统的选择技术,例如随机选择,其中选择所有或部分随机的客户端进行训练。我们还涵盖了面向性能和面向资源的选择,适用于资源受限和异构网络。我们还讨论了客户端选择在模型安全增强中的使用。最后,我们讨论了动态约束和异构网络中的客户端选择相关的开放问题和挑战。
Nov, 2023
本文提出 MimiC 算法,针对联邦学习过程中移动设备不稳定可用性导致的模型训练失败的问题,通过修改接收到的模型更新使其模拟中央更新,并通过理论分析和模拟实验证明了该算法的收敛性和优越性。
Jun, 2023
FLrce 是一种高效的联邦学习框架,具有基于关系的客户选择和提前停止策略,可以加速 FL 过程并节省通信和计算资源。实验结果表明,FLrce 提高了通信和计算效率,并保持了竞争性的准确性。
Oct, 2023