FedClust: 通过权重驱动的客户端聚类优化非IID数据上的联邦学习
本研究提出了一种基于聚类的联邦多任务学习框架(Clustered Federated Learning),可在保持数据隐私性的同时,更好地解决联邦学习中本地数据分布不同的问题,并在深度卷积和循环神经网络上进行实验证明了其有效性。
Oct, 2019
本研究提出了一种针对分布式、分区群集的联合学习的新框架,即聚簇联合学习,同时也提出了迭代联合聚类算法 (IFCA),分析了其收敛速度及统计误差率上的优越性,并将其运用于神经网络等非凸问题的有效性实验中。
Jun, 2020
Cluster-driven Graph Federated Learning (FedCG) proposes a novel method for learning a central model in privacy-constrained scenarios, overcoming statistical heterogeneity by identifying domains via FL-compliant clustering, instantiating domain-specific modules, connecting them through Graph Convolutional Networks (GCNs), and learning to cluster unsupervised via teacher-student classifier-training iterations to achieve state-of-the-art results on multiple Federated Learning benchmarks.
Apr, 2021
本文关注于联邦聚类问题,提出了一种用于联邦学习的延伸模糊C均值算法,并通过数值实验评估了其行为,其中一种方法即使在复杂情况下也能够确定良好的全局聚类中心,但也认识到许多挑战的问题仍然存在。
Jan, 2022
本研究提出了一种新的通信高效的联邦学习(FL)框架FedCliP,采用自适应学习算法确定参与模型训练的客户端,通过优化算法减少不必要的通信开销。实验结果显示该框架在MNIST、FMNIST和CIFAR-10等数据集上优于目前的FL框架。
Jan, 2023
本文提出了一种针对非独立同分布问题的新型聚类联邦学习方法StoCFL,它实现了一种灵活的CFL框架,支持不同比例的客户端参与和新客户端加入,而且在保持模型性能的同时获得了良好的聚类结果。
Mar, 2023
通过综合研究当前对聚类型联邦学习方法,本文提出了一个四层框架(HCFL),并针对每一层中当前聚类方法面临的挑战提出了一个增强聚类方法HCFL+,通过广泛的数值评估展示了我们的聚类框架和改进组件的有效性。
Oct, 2023
在本文中,我们提出了一种自适应的聚类联邦学习框架,名为FedAC,它通过解耦神经网络并为每个子模块使用不同的聚合方法,有效地将全局知识融合到簇内学习中,同时采用一种经济高效的在线模型相似度度量基于降维技术,以及一个用于改进复杂异构环境中自适应性和可扩展性的簇数微调模块。广泛的实验结果表明,相较于现有方法,FedAC在不同的非独立同分布设置下,CIFAR-10和CIFAR-100数据集的测试准确率分别提高了约1.82%和12.67%。
Mar, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024
本研究解决了联邦学习在无监督场景下的应用不足,提出了一种新颖的联邦聚类方法,实现无标签和不均匀数据分布下跨多个客户端的完整类别识别。通过设计联邦聚类逐步精炼方法(FedCRef),该方法显示出在无监督的联邦学习环境中显著提高数据表示精度的潜力。
Aug, 2024