集群化联邦学习的高效框架
本文提出了一种修改的联邦学习(FL+HC)方法,通过引入分层聚类步骤将客户端分为相似的集群,然后对这些集群进行独立并行的训练,实现在非独立同分布的数据环境下的模型训练,通过该方法可以使模型的性能、收敛速度、精度都有所提升。
Apr, 2020
本文提出了FedLin框架来应对分布式学习中的目标异质性、系统异质性和不频繁不准确的通信挑战,当客户端的本地损失函数是光滑且强凸的时,FedLin保证线性收敛并最终收敛到全局最小点,并且在压缩比例下仍然保持线性收敛速度。
Feb, 2021
Cluster-driven Graph Federated Learning (FedCG) proposes a novel method for learning a central model in privacy-constrained scenarios, overcoming statistical heterogeneity by identifying domains via FL-compliant clustering, instantiating domain-specific modules, connecting them through Graph Convolutional Networks (GCNs), and learning to cluster unsupervised via teacher-student classifier-training iterations to achieve state-of-the-art results on multiple Federated Learning benchmarks.
Apr, 2021
本文关注于联邦聚类问题,提出了一种用于联邦学习的延伸模糊C均值算法,并通过数值实验评估了其行为,其中一种方法即使在复杂情况下也能够确定良好的全局聚类中心,但也认识到许多挑战的问题仍然存在。
Jan, 2022
本文提出了一种针对非独立同分布问题的新型聚类联邦学习方法StoCFL,它实现了一种灵活的CFL框架,支持不同比例的客户端参与和新客户端加入,而且在保持模型性能的同时获得了良好的聚类结果。
Mar, 2023
我们提出了一种名为FCCA的联邦cINN聚类算法,通过将客户端的私有数据转换为多元高斯分布,学习编码的潜在特征,以达到客户端聚类和改善全局模型性能的目的。实验结果表明,FCCA在各种模型和数据集上的性能优于其他最先进的集群联邦学习算法,表明我们的方法在提高现实世界中联邦学习任务的效率和准确性方面具有巨大的潜力。
Sep, 2023
通过综合研究当前对聚类型联邦学习方法,本文提出了一个四层框架(HCFL),并针对每一层中当前聚类方法面临的挑战提出了一个增强聚类方法HCFL+,通过广泛的数值评估展示了我们的聚类框架和改进组件的有效性。
Oct, 2023
FedClust是一种聚类联邦学习方法,利用局部模型权重和客户数据分布之间的相关性将客户分组成簇,并动态地实时适应新加入的客户,实验结果表明FedClust在准确性和通信成本方面优于基线方法。
Mar, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024
本研究解决了联邦学习在无监督场景下的应用不足,提出了一种新颖的联邦聚类方法,实现无标签和不均匀数据分布下跨多个客户端的完整类别识别。通过设计联邦聚类逐步精炼方法(FedCRef),该方法显示出在无监督的联邦学习环境中显著提高数据表示精度的潜力。
Aug, 2024