动态加权联邦 k-均值
本研究提出了一种针对分布式、分区群集的联合学习的新框架,即聚簇联合学习,同时也提出了迭代联合聚类算法 (IFCA),分析了其收敛速度及统计误差率上的优越性,并将其运用于神经网络等非凸问题的有效性实验中。
Jun, 2020
本文关注于联邦聚类问题,提出了一种用于联邦学习的延伸模糊C均值算法,并通过数值实验评估了其行为,其中一种方法即使在复杂情况下也能够确定良好的全局聚类中心,但也认识到许多挑战的问题仍然存在。
Jan, 2022
分布式优化在机器学习中的应用既可以由隐私保护的结果推动,也可以由计算效率的提高推动。本文旨在演示如何将双重分解应用于分布式培训 $ K $-means 聚类问题,并通过在多个基准问题上评估子梯度法、束程序信任法和拟牛顿对偶升算法的性能来支持这一观点。
Jul, 2023
分散数据集的联邦学习技术可以进行机器学习,而无需数据集合,因此更好地保护数据的隐私和所有权。本研究介绍了一种以联邦方式实现K-means聚类的算法,旨在解决中心之间聚类数量变化和在不易分离的数据集上的收敛问题。
Oct, 2023
FedClust是一种聚类联邦学习方法,利用局部模型权重和客户数据分布之间的相关性将客户分组成簇,并动态地实时适应新加入的客户,实验结果表明FedClust在准确性和通信成本方面优于基线方法。
Mar, 2024
该研究介绍了一种基于元素权重聚合的联邦学习方法(EWWA-FL),旨在优化学习性能和加速收敛速度。通过将本地权重聚合到全局模型的个别元素级别,该方法允许每个参与的客户端对学习过程进行元素级贡献,从而提高了全局模型对不同数据集的鲁棒性以及实现了快速收敛。该方法具有灵活性,可以采用各种加权策略,通过全面的实验证明了EWWA-FL的先进性,展示了在各种骨干和基准测试中精确度和收敛速度的显著改进。
Apr, 2024
在水平联邦环境中,我们研究了隐私保护的k-means聚类问题,并通过综合差分隐私和安全计算的方法提出了一个更快速、更加隐私安全和更准确的设计。
May, 2024
边缘设备产生的数据迅速增长促进了机器学习算法的性能。然而,传统的机器学习范式面临两个主要挑战:数据集中化和缺乏类标签。为了解决这些问题,我们首次引入了个性化联邦聚类的概念,提出了一种在服务器和客户端之间进行通信的p-FClus算法,能够实现较低的聚类成本和方差,并适用于各种联邦数据集。
Jul, 2024
通过测量局部模型权重的相似性,一种名为FedClust的新型聚类联邦学习方法,通过在一个步骤中将客户端分组成簇的方式,解决了非独立同分布数据情况下不均匀数据分布导致的性能下降问题,并且相比其他最先进方法,FedClust在模型精度上提高了高达约45%,并且在收敛速度上具有显著降低的通信成本,最高可达2.7倍。
Jul, 2024
本研究解决了联邦学习在无监督场景下的应用不足,提出了一种新颖的联邦聚类方法,实现无标签和不均匀数据分布下跨多个客户端的完整类别识别。通过设计联邦聚类逐步精炼方法(FedCRef),该方法显示出在无监督的联邦学习环境中显著提高数据表示精度的潜力。
Aug, 2024