联邦学习中的异常本地聚类
分散数据集的联邦学习技术可以进行机器学习,而无需数据集合,因此更好地保护数据的隐私和所有权。本研究介绍了一种以联邦方式实现 K-means 聚类的算法,旨在解决中心之间聚类数量变化和在不易分离的数据集上的收敛问题。
Oct, 2023
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
通过利用深度神经网络从非表格数据(如图像和文本)提取高质量特征向量来提出一种基于本地记忆的个性化机制,该机制与基于全局模型的交叉训练相结合,使用局部k- 近邻模型实现个性化,并且在二元分类情况下给出了一般化边界。在一系列联合数据集上实验证明了这种方法的准确性和公平性显著优于现有的状态 - of-the-art 方法。
Nov, 2021
通过在设备上联合学习一种新的联邦学习算法,可以通过仅传递参数来训练全局模型,从而保持设备数据的私密性,这可以减少通信参数的数量并降低数据方差和设备分布差异,同时兼顾对隐私和公平性的要求。
Jan, 2020
本文提出了一种新型的通过联邦学习来检测客户端服务器上有害网络活动的异常检测器,使用自编码器和分类器来判断网络活动是否良性或恶意,研究表明,联邦学习使得全局模型能够从每个客户端的数据中学习,并为每个客户端提供了改善其入侵检测系统防御网络攻击的手段。
Oct, 2022
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023