FLuID: 使用不变权重抑制缓慢计算节点的联邦学习方法
本文提出了一种基于性能和准确性反馈的动态子模型技术 Invariant Dropout,以解决联合学习中由于部分设备性能低下而导致的性能瓶颈问题,并使用五个真实的移动客户端进行了评估,显示 Invariant Dropout 可以最大程度地提高 1.4%的准确性,同时减轻了残留者的性能瓶颈。
Aug, 2022
本文提出一种名为 Federated dropout (FedDrop) 的联邦式学习方案,该方案利用经典的 dropout 算法进行随机模型修剪。该方案可在减少通信开销和设备计算负载的同时,表现出比传统的 FL 和具有相同概率的子网的 FL 方案更好的效果。
Sep, 2021
该研究提出了一种混合联邦学习算法(HFL),通过引入异步更新器和自适应延迟 SGD(AD-SGD)等方法,有效解决了异构优化问题中慢设备所带来的训练效率和学习效果不平衡的问题,且算法收敛速度为 $O (1/t+τ)$。
Feb, 2021
在联邦学习中,通过使用梯度反转技术将旧的模型更新转换为新的模型更新,我们提出了一种新的框架来有效地解决客户端模型更新的过时性问题,实验证明,我们的方法可以显著提高训练模型的准确性高达 20%,并加速联邦学习进程高达 35%。
Sep, 2023
该研究提出了一种名为 InclusiveFL 的客户端包含的联邦学习方法,解决异构设备下的全局模型训练问题,并通过在不同大小的本地模型之间共享知识和动量知识蒸馏方法来实现客户端之间的模型学习和知识迁移,实验表明该方法在联邦学习框架下从客户异构设备中学习准确模型方面具有很好的效果。
Feb, 2022
个性化联邦学习中,采用较小规模的本地子模型的联邦丢弃策略会引入偏差,因此我们提出了联邦学习与随机参数更新的方法,通过冻结部分神经元来增强模型对于他人偏差参数的鲁棒性,并引入早停机制来显著减少训练时间。
Mar, 2024
提出了一种利用辍学技术处理分布式异构设备的异步联邦学习(FL)框架 AsyncDrop,有效减少了通信成本和训练时间,提高了非 iid FL 场景的最终测试精度。
Oct, 2022
提出了一种名为 Hybrid-FL 的协作机制,通过启发式算法解决数据和客户端选择问题,从而缓解非独立同分布数据带来的弊端,在网络模拟和机器学习实验中证明了该方案比之前提出的方案在非 IID 情况下具有更高的分类准确率。
May, 2019
动态分层联邦学习系统可以通过利用分层学习的概念,将全局模型的不同部分分配给不同层次的客户端,并通过基于本地损失的训练使每个客户端可以并行更新模型,从而减少资源受限设备上计算和通信的需求,缓解迟到问题,从而显著减少训练时间并保持模型准确性。
Dec, 2023