本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本文提出了基于差分隐私均值共享的联邦学习算法 FedDPMS,该算法使用变分自编码器在保护隐私的前提下,增强本地数据集合成多样化的数据以避免数据异构性对于联邦学习的负面影响,实验表明 FedDPMS 算法比其他面向异构数据的联邦学习算法性能更佳,特别适用于深度图像分类任务。
Jun, 2022
本研究提出一种新方法来解决联邦学习中的问题,并在本文所述的公开基准数据集(如 Femnist)以及自己收集的数据集(即流量分类)上验证了该方法的有效性,结果表明这种方法在极端情况下具有显著的优势。
Nov, 2020
本文提出了一种在联邦学习中学习所有参与客户机中共同不变(因果)特征的方法,并经验性地分析了它如何增强模型的精度和隐私性。
Apr, 2021
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
本文调查了针对非独立同分布数据的个性化联邦学习的研究,此技术可让多方参与联合学习,从而达到隐私保护的目的。
Mar, 2020
本文讨论了联邦学习的隐私保护机制,分析了非独立同分布数据对水平和垂直联邦学习中参数和非参数机器学习模型的影响,概括了当前解决非独立同分布数据挑战的方法,并讨论了这些方法的优缺点。最后,提出了研究方向。
Jun, 2021
提出了一种新的算法,通过差分隐私保护的联邦优化算法来处理联邦学习中的差分攻击问题,能够在只牺牲模型性能的小量代价下保持客户端差分隐私。
Dec, 2017
本文提出了一种新的个性化联邦学习框架来解决异构医疗数据在多个医院之间协作训练神经网络时的降级问题,并设计了差异性稀疏正则化器和降低计算成本的方法来提高计算效率,最后通过实验证明该方法可以获取最佳模型性能和高达 60%的通信效率改进。
Jun, 2023