随机聚合联邦学习
FedClust 是一种聚类联邦学习方法,利用局部模型权重和客户数据分布之间的相关性将客户分组成簇,并动态地实时适应新加入的客户,实验结果表明 FedClust 在准确性和通信成本方面优于基线方法。
Mar, 2024
通过测量局部模型权重的相似性,一种名为 FedClust 的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust 在模型精度上提高了高达约 45%,并且在收敛速度上具有显著降低的通信成本,最高可达 2.7 倍。
Jul, 2024
本研究提出了一种基于聚类的联邦多任务学习框架(Clustered Federated Learning),可在保持数据隐私性的同时,更好地解决联邦学习中本地数据分布不同的问题,并在深度卷积和循环神经网络上进行实验证明了其有效性。
Oct, 2019
分散式学习模式下的联邦学习存在数据分布不同的挑战,本论文提出了使用数据压缩和核对齐方法的 DCFL 算法,以解决该挑战,并在多个基准测试中展示了竞争性性能。
Dec, 2023
联邦学习是一种机器学习方法,可以在持有本地数据样本的多个分散边缘设备之间进行协作模型训练,而无需交换这些样本。本报告探讨了非独立非同分布的数据与异构数据带来的问题,并探索了目前设计用于解决这些挑战的算法。
Jan, 2024
在本文中,我们提出了一种自适应的聚类联邦学习框架,名为 FedAC,它通过解耦神经网络并为每个子模块使用不同的聚合方法,有效地将全局知识融合到簇内学习中,同时采用一种经济高效的在线模型相似度度量基于降维技术,以及一个用于改进复杂异构环境中自适应性和可扩展性的簇数微调模块。广泛的实验结果表明,相较于现有方法,FedAC 在不同的非独立同分布设置下,CIFAR-10 和 CIFAR-100 数据集的测试准确率分别提高了约 1.82% 和 12.67%。
Mar, 2024
通过综合研究当前对聚类型联邦学习方法,本文提出了一个四层框架(HCFL),并针对每一层中当前聚类方法面临的挑战提出了一个增强聚类方法 HCFL+,通过广泛的数值评估展示了我们的聚类框架和改进组件的有效性。
Oct, 2023
本文提出了一种修改的联邦学习 (FL+HC) 方法,通过引入分层聚类步骤将客户端分为相似的集群,然后对这些集群进行独立并行的训练,实现在非独立同分布的数据环境下的模型训练,通过该方法可以使模型的性能、收敛速度、精度都有所提升。
Apr, 2020