联邦聚类:针对去中心化数据分布的无监督聚类训练
本研究提出了一种针对分布式、分区群集的联合学习的新框架,即聚簇联合学习,同时也提出了迭代联合聚类算法 (IFCA),分析了其收敛速度及统计误差率上的优越性,并将其运用于神经网络等非凸问题的有效性实验中。
Jun, 2020
Cluster-driven Graph Federated Learning (FedCG) proposes a novel method for learning a central model in privacy-constrained scenarios, overcoming statistical heterogeneity by identifying domains via FL-compliant clustering, instantiating domain-specific modules, connecting them through Graph Convolutional Networks (GCNs), and learning to cluster unsupervised via teacher-student classifier-training iterations to achieve state-of-the-art results on multiple Federated Learning benchmarks.
Apr, 2021
本文关注于联邦聚类问题,提出了一种用于联邦学习的延伸模糊C均值算法,并通过数值实验评估了其行为,其中一种方法即使在复杂情况下也能够确定良好的全局聚类中心,但也认识到许多挑战的问题仍然存在。
Jan, 2022
本文提出一种基于Orchestra算法的无监督联邦学习技术,通过在联邦结构中进行分层聚类任务并强制执行全局一致的客户端数据划分,实现了对统计/系统异质性、可扩展性和通信效率的稳健性,保证了良好的泛化性能,并在一系列条件下优于其他技术。
May, 2022
我们提出了一种名为FCCA的联邦cINN聚类算法,通过将客户端的私有数据转换为多元高斯分布,学习编码的潜在特征,以达到客户端聚类和改善全局模型性能的目的。实验结果表明,FCCA在各种模型和数据集上的性能优于其他最先进的集群联邦学习算法,表明我们的方法在提高现实世界中联邦学习任务的效率和准确性方面具有巨大的潜力。
Sep, 2023
该论文介绍了一个名为REPA的方法,用于在非独立同分布的联邦学习环境中进行客户端聚类,该方法不需要进行训练或标记数据收集,并使用一种基于自动编码器的监督方法来创建客户端的嵌入,从而揭示其潜在数据生成过程,并在三个不同数据集上进行的实验分析证明REPA在提供最先进的模型性能的同时扩展了基于聚类的联邦学习的适用范围。
Sep, 2023
分散数据集的联邦学习技术可以进行机器学习,而无需数据集合,因此更好地保护数据的隐私和所有权。本研究介绍了一种以联邦方式实现K-means聚类的算法,旨在解决中心之间聚类数量变化和在不易分离的数据集上的收敛问题。
Oct, 2023
FedClust是一种聚类联邦学习方法,利用局部模型权重和客户数据分布之间的相关性将客户分组成簇,并动态地实时适应新加入的客户,实验结果表明FedClust在准确性和通信成本方面优于基线方法。
Mar, 2024
边缘设备产生的数据迅速增长促进了机器学习算法的性能。然而,传统的机器学习范式面临两个主要挑战:数据集中化和缺乏类标签。为了解决这些问题,我们首次引入了个性化联邦聚类的概念,提出了一种在服务器和客户端之间进行通信的p-FClus算法,能够实现较低的聚类成本和方差,并适用于各种联邦数据集。
Jul, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024