FedBN:通过本地批量归一化在非独立同分布特征上进行联合学习
本文提出 FedFBN,一种使用预训练网络作为模型后端并在训练过程中冻结批归一化层的联邦学习框架,并通过合成 iid 玩具数据集和大规模非 iid 数据集进行评估,结果表明 FedFBN 能够优于使用分布式和非 iid 数据集训练全局模型的当前聚合策略。
Mar, 2023
本文研究了使用联邦学习方法在分布式非独立同分布数据集上训练深度学习模型时,采用不同的规范化层和协同频率策略,优化模型性能的效果,研究发现,Batch Normalization 并不是最适合联邦学习的规范化策略,而 Group 与 Layer Normalization 能更有效地提升模型的速度和质量。此外,频繁的模型聚合也能降低模型性能。
Mar, 2023
在联邦学习领域,解决非独立同分布的数据问题一直是提高全局模型性能的一个重要挑战。本文提出了特征范数正则化联邦学习(FNR-FL)算法,通过独特地结合类平均特征范数来增强在非独立同分布场景下的模型准确性和收敛性。我们的综合分析发现,相比其他现代联邦学习算法,FNR-FL 不仅加快了收敛速度,而且在特征分布不均衡的情况下显著提高了测试准确率。FNR-FL 的新颖模块化设计使其能与现有的联邦学习框架无缝集成,增强了其适应性和广泛应用的潜力。我们通过严格的实证评估确证了我们的论述,展示了 FNR-FL 在各种不均衡数据分布下的出色性能。相较于 FedAvg,FNR-FL 的准确率提升了 66.24%,训练时间显著减少了 11.40%,凸显了其提高效果和效率的优势。
Dec, 2023
研究表明,在分布式学习中,Batch Normalization 和 Group Normalization 并没有明显差异,而 Batch Normalization 可以用于更广泛的分布式学习设置中。
Mar, 2023
在联合学习中,批量标准化 (Federated BatchNorm) 是一种新的机制,它在训练中保持一致性,确保批量标准化与中心化执行中所获得的一致,并准确估计全局统计数据,从而减少外部协变量转移和与中心化设置的评估性能匹配。此外,可以通过稍微增加复杂性来加强 FBN 以减轻错误统计和可能的对抗攻击。
May, 2024
Federated learning(FL)通过在分散的客户端上进行协同原位训练,增强数据隐私性。然而,FL 面临由于非独立和同分布的(non-i.i.d)数据而引起的挑战,导致潜在的性能下降和收敛阻碍。本研究解决了一个被称为多域 FL 的关键问题,该问题经常被忽略,即客户数据来自具有不同特征分布的不同领域。为了解决 FL 中的多域问题,我们提出了一种称为无标准化联邦学习(FedWon)的新方法。FedWon 通过在 FL 中消除所有标准化,并用缩放的权重标准化重新参数化卷积层,以解决批量标准化面临的挑战。与 FedAvg 和当前最先进的方法(FedBN)相比,我们的结果表明 FedWon 在所有实验设置中均优于它们,某些域的改进超过 10%。此外,FedWon 即使在批量大小为 1 的情况下也能够以强劲的性能处理扭曲的标记分布,并且对于跨 silos 和跨设备的 FL 非常灵活。
Jun, 2023
本文从原始对偶优化角度提出一种新的机器学习算法策略来解决分布式学习过程中的非凸问题,使得此算法成为分布式学习架构中所有特性最优秀的算法框架,并且具有通信效率。
May, 2020
本文提出了一种新的联邦学习范例,名为联邦互助学习(FML),以处理三种不同类型的异质性,允许客户在共同设计通用模型的同时独立设计个性化并为不同场景和任务的个性化定制模型。
Jun, 2020
本文针对数据分布差异和个性化需求,提出了 FedAP 算法,基于对批量规范化层统计量的相似度学习,用个性化的批量规范化方法保留每个客户的特殊性,实现了对本地客户的个性化建模。在五项医疗基准测试中的实验证明,FedAP 相比现有的最先进方法,如对于 PAMAP2 的准确率提高了 10%,达到了更好的准确性和更快的收敛速度。
Dec, 2021