精准聚类联邦学习的联合cINN聚类
本研究提出了一种基于聚类的联邦多任务学习框架(Clustered Federated Learning),可在保持数据隐私性的同时,更好地解决联邦学习中本地数据分布不同的问题,并在深度卷积和循环神经网络上进行实验证明了其有效性。
Oct, 2019
本研究提出了一种针对分布式、分区群集的联合学习的新框架,即聚簇联合学习,同时也提出了迭代联合聚类算法 (IFCA),分析了其收敛速度及统计误差率上的优越性,并将其运用于神经网络等非凸问题的有效性实验中。
Jun, 2020
Cluster-driven Graph Federated Learning (FedCG) proposes a novel method for learning a central model in privacy-constrained scenarios, overcoming statistical heterogeneity by identifying domains via FL-compliant clustering, instantiating domain-specific modules, connecting them through Graph Convolutional Networks (GCNs), and learning to cluster unsupervised via teacher-student classifier-training iterations to achieve state-of-the-art results on multiple Federated Learning benchmarks.
Apr, 2021
本文关注于联邦聚类问题,提出了一种用于联邦学习的延伸模糊C均值算法,并通过数值实验评估了其行为,其中一种方法即使在复杂情况下也能够确定良好的全局聚类中心,但也认识到许多挑战的问题仍然存在。
Jan, 2022
本论文提出了一个数据异构鲁棒的联邦学习方法——FedGSP,该方法使用动态序列-并行协作训练的新概念,通过将FL客户端分配到同质组中最小化组与组之间的整体分布差异,增加并行度并通过一种新颖的Inter-Cluster Grouping (ICG)算法来辅助分配,该算法利用重心等价定理简化NP难问题,实验结果表明FedGSP相比七种现有方法平均提高了3.7%的准确率,并将训练时间和通信成本降低了90%以上。
Jan, 2022
基于已发布的堆叠联邦学习(FedStack)框架,本研究提出了一种新颖的聚类联邦堆叠(Clustered FedStack)框架,通过采用三种聚类机制,并结合贝叶斯信息准则(BIC)和循环学习率方法,能有效克服联邦学习中的数据分布不同和标签不平衡的问题,优于基准模型的性能。
Sep, 2023
FedClust是一种聚类联邦学习方法,利用局部模型权重和客户数据分布之间的相关性将客户分组成簇,并动态地实时适应新加入的客户,实验结果表明FedClust在准确性和通信成本方面优于基线方法。
Mar, 2024
在本文中,我们提出了一种自适应的聚类联邦学习框架,名为FedAC,它通过解耦神经网络并为每个子模块使用不同的聚合方法,有效地将全局知识融合到簇内学习中,同时采用一种经济高效的在线模型相似度度量基于降维技术,以及一个用于改进复杂异构环境中自适应性和可扩展性的簇数微调模块。广泛的实验结果表明,相较于现有方法,FedAC在不同的非独立同分布设置下,CIFAR-10和CIFAR-100数据集的测试准确率分别提高了约1.82%和12.67%。
Mar, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024
本研究解决了联邦学习在无监督场景下的应用不足,提出了一种新颖的联邦聚类方法,实现无标签和不均匀数据分布下跨多个客户端的完整类别识别。通过设计联邦聚类逐步精炼方法(FedCRef),该方法显示出在无监督的联邦学习环境中显著提高数据表示精度的潜力。
Aug, 2024