DRFLM:利用本地混合和客户端内噪声的分布鲁棒联邦学习
本篇论文提出了一种名为 FedCNI 的方法,通过使用噪声鲁棒局部求解器和强健的全局聚合器,在 Federated learning 的小规模本地数据集中解决标签噪声和类别不平衡带来的挑战,并在混合异构 FL 场景中实现了比现有技术更好的性能。
Apr, 2023
本文通过研究噪声客户端带来的问题,并量化了其对不同层学习的影响,提出了一种名为 Fed-NCL 的框架来进行鲁棒性联邦学习,并通过鲁棒的层级聚合和标签修正来解决由噪声客户端引起的数据异质性问题,实验结果表明,该算法提高了带有噪声客户端的各种最新系统的性能。
Jun, 2021
该研究提出了一种基于混合模型假设的联邦多任务学习方法,该方法可以在设备上学习个性化模型并实现客户端和服务端两种架构下的联邦 EM 算法的收敛,同时在联邦学习基准测试中获得了更高的准确性和公平性。
Aug, 2021
本文提出一种名为 FedND 的新型联邦学习算法,采用知识蒸馏优化模型训练过程,并在客户端使用自我蒸馏方法进行本地模型训练,在服务器端生成噪声样本用于蒸馏其他客户端,最终通过聚合本地模型获得全局模型,实验结果表明该算法不仅达到最佳性能,而且比现有的算法更具通信效率。
Jun, 2023
提出了一种基于 MAFL 框架和 FedMix 算法的联邦学习方法,可保护隐私并在高度非独立同分布的情况下获得比传统算法更好的性能。
Jul, 2021
本研究提出了一种名为 FedNoRo 的框架,用于应对医疗场景下的分类不平衡和标签噪声异质性问题,其中第一阶段使用高斯混合模型进行噪声客户端识别,第二阶段结合知识蒸馏和距离感知聚合函数用于噪声鲁棒联邦模型更新,实验结果表明 FedNoRo 优于现有研究在应对实际场景中的类不平衡和标签噪声的能力。
May, 2023
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
本文提出了一种名为 FedCorr 的多阶段框架,用于处理具有异构标签噪声的联邦学习,它动态识别嘈杂的客户端,基于每个样本的损失来纠正客户端中的错误标签,并增加了基于估计的本地噪声级别的自适应局部近端正则化项来应对数据异构性并提高训练稳定性。经过实验验证,它在多个噪声级别下表现出鲁棒性,大大优于现有的最新方法。
Apr, 2022