FedFN:解决联邦学习中的数据异质性问题的特征正态化
在联邦学习领域,解决非独立同分布的数据问题一直是提高全局模型性能的一个重要挑战。本文提出了特征范数正则化联邦学习(FNR-FL)算法,通过独特地结合类平均特征范数来增强在非独立同分布场景下的模型准确性和收敛性。我们的综合分析发现,相比其他现代联邦学习算法,FNR-FL 不仅加快了收敛速度,而且在特征分布不均衡的情况下显著提高了测试准确率。FNR-FL 的新颖模块化设计使其能与现有的联邦学习框架无缝集成,增强了其适应性和广泛应用的潜力。我们通过严格的实证评估确证了我们的论述,展示了 FNR-FL 在各种不均衡数据分布下的出色性能。相较于 FedAvg,FNR-FL 的准确率提升了 66.24%,训练时间显著减少了 11.40%,凸显了其提高效果和效率的优势。
Dec, 2023
本研究提出一种名为联邦分类器平均(FedClassAvg)的个性化联邦学习方法,通过聚合分类器权重以增强特征空间的决策边界来使得有不同神经网络架构、实现非独立同分布数据(non-iid)学习任务的客户端可以学习稀缺标签,同时应用本地特征表示学习来稳定决策边界并利用局部特征提取能力提升客户端的表现,相较于已有方法仅要求客户端通信少量全连接层,因此高度通信效率,而且不需要额外的优化问题和计算开销,且在异构性个性化联邦学习任务方面表现优于现有最先进算法。
Oct, 2022
本研究提出了一种名为 FedBN 的有效方法,该方法使用本地批量归一化来减轻特征转移非独立同分布问题,并优于现有算法,促进联邦学习的收敛性。
Feb, 2021
Federated learning(FL)通过在分散的客户端上进行协同原位训练,增强数据隐私性。然而,FL 面临由于非独立和同分布的(non-i.i.d)数据而引起的挑战,导致潜在的性能下降和收敛阻碍。本研究解决了一个被称为多域 FL 的关键问题,该问题经常被忽略,即客户数据来自具有不同特征分布的不同领域。为了解决 FL 中的多域问题,我们提出了一种称为无标准化联邦学习(FedWon)的新方法。FedWon 通过在 FL 中消除所有标准化,并用缩放的权重标准化重新参数化卷积层,以解决批量标准化面临的挑战。与 FedAvg 和当前最先进的方法(FedBN)相比,我们的结果表明 FedWon 在所有实验设置中均优于它们,某些域的改进超过 10%。此外,FedWon 即使在批量大小为 1 的情况下也能够以强劲的性能处理扭曲的标记分布,并且对于跨 silos 和跨设备的 FL 非常灵活。
Jun, 2023
本文提出了基于本地持续训练策略的联邦学习算法,通过评估一小部分代理数据集上的重要性权重并将其用于约束本地训练,从而减少了权重分歧并不断将不同本地客户端的知识整合到全局模型中,显著提高了联邦模型的初始性能。
May, 2020
本文提出了一种新的联邦学习范例,名为联邦互助学习(FML),以处理三种不同类型的异质性,允许客户在共同设计通用模型的同时独立设计个性化并为不同场景和任务的个性化定制模型。
Jun, 2020
该研究调查了联邦学习(FL)这一机器学习范式,允许在不共享原始数据的设备上进行分散模型训练,从而保护数据隐私。我们比较了该范式内的两种策略:联邦平均(FedAvg)和个性化联邦平均(Per-FedAvg),重点关注它们在非独立同分布数据(Non-IID)条件下的性能。我们的分析显示,使用狄利克雷分布建模的数据异质性水平显著影响两种策略的性能,在高异质性条件下,Per-FedAvg 表现出更强的健壮性。我们的结果为在分散环境下开发更有效和高效的机器学习策略提供了见解。
Sep, 2023
本文研究了使用联邦学习方法在分布式非独立同分布数据集上训练深度学习模型时,采用不同的规范化层和协同频率策略,优化模型性能的效果,研究发现,Batch Normalization 并不是最适合联邦学习的规范化策略,而 Group 与 Layer Normalization 能更有效地提升模型的速度和质量。此外,频繁的模型聚合也能降低模型性能。
Mar, 2023
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本研究提出一种新方法来解决联邦学习中的问题,并在本文所述的公开基准数据集(如 Femnist)以及自己收集的数据集(即流量分类)上验证了该方法的有效性,结果表明这种方法在极端情况下具有显著的优势。
Nov, 2020