基于条件策略的个性化联邦学习中特征信息的分离
提出了一种名为 GPFL 的新的个性化联邦学习方法,该方法在每个客户端上同时学习全局和个性化的特征信息,并在六个数据集上展示了 GPFL 在效果、可扩展性、公平性、稳定性和隐私方面优于十种最先进方法的优越性,此外,GPFL 能够减轻过拟合问题,准确率比基线方法提高了 8.99%。
Aug, 2023
pFedGP 基于高斯过程和深层核学习,旨在解决在低数据环境下学习跨客户有效性的挑战,通过学习跨客户的共享核函数以及个性化的 GP 分类器,在多个基准测试中实现了高度准确的状态,并在可靠性方面显着优于基准方法。
Jun, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
提出了一种新颖的个性化联邦学习方案,通过向每个客户端的全局模型注入个性化先验知识来减轻个性化联邦学习中引入的不完整信息问题,在个性化场景中具有更大的适应性,通过收敛分析和大量实验结果验证了该方法的鲁棒性和必要性。
Oct, 2023
FedSelect 是一种新的个性化联邦学习算法,通过逐步扩展子网络对客户参数进行个性化,并在剩余参数上进行全局聚合,从而解决了客户数据异质性问题。
Apr, 2024
通过提出一种新的联邦学习框架,使得个性化联邦学习可以学习一个强健的全局模型,以在联邦学习系统中对未知的 / 测试客户端达到与个性化模型相当的性能。
Mar, 2024
基于低维特征空间的个性化联邦学习(Personalized Federated Learning,PFL)框架,通过选择每个客户端自适应其本地数据分布下全局编码器生成的特征中与任务相关的特征,提供了比参数空间更易理解和解释的 PFL 实现方法。FedPick 在跨领域的联邦学习中能够为每个客户端有效选择与任务相关的特征并提高模型性能。
Jul, 2023
提出了基于特征提取器共享的异构个性化联邦学习方法 (pFedES),该方法在不同客户端的本地模型中引入小型同质特征提取器,通过迭代学习方法进行训练,实现全局泛化知识和本地个性化知识的交换和共享,其理论上证明了 pFedES 能够在墙时收敛。在两个真实数据集上的广泛实验中,与六种最先进的方法相比,pFedES 构建了最准确的模型,同时通信和计算成本较低,与最佳基准相比,测试准确性提高了 1.61%,通信和计算成本分别降低了 99.6% 和 82.9%。
Nov, 2023
个性化联邦学习的 PAC-PFL 算法在一个 PAC-Bayesian 框架中应用差分隐私处理数据相关的先验概率,协同学习共享超后验,并将每个客户的后验推断视为个性化步骤,通过建立和最小化客户平均真实风险的泛化界限,有效地抑制过度拟合,从而实现准确和良好校准的预测。
Jan, 2024