通过提出一种新的联邦学习框架,使得个性化联邦学习可以学习一个强健的全局模型,以在联邦学习系统中对未知的 / 测试客户端达到与个性化模型相当的性能。
Mar, 2024
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
该论文研究了联邦学习(FL)的个性化策略问题,并介绍了一种通过元网络(meta-nets)在 FL 网络中学习个性化策略的框架,该框架通过学习元网络的批量归一化和学习率参数来为每个客户端生成定制的个性化策略。实证结果表明,该框架在标签偏移和特征偏移情况下优于多种标准的手工个性化基线方法。
Oct, 2023
研究围绕联邦学习,提出使用强大的服务器模型帮助边缘设备解决模型容量问题,通过选择性地从多个客户端和自己进行学习,开发了深度知识并返回给客户端,取得了在图像分类任务中的优秀性能。
Oct, 2021
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
提出一种结合局部模型聚合与神经网络解耦技术的个性化联邦学习算法 (pFedSim),在保护数据隐私的前提下,显著提高模型精度且计算和通信开销低。
May, 2023
使用堆叠泛化的新型个性化方法,在保护隐私的情况下,直接发送模型来训练元模型,并在水平、混合和垂直分区联邦中适用各种模型类型和隐私保护技术,从而创建更适合个体客户数据的多个模型,并通过多方面评估每位客户对联邦的贡献。
Apr, 2024
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
提出了一种名为 GPFL 的新的个性化联邦学习方法,该方法在每个客户端上同时学习全局和个性化的特征信息,并在六个数据集上展示了 GPFL 在效果、可扩展性、公平性、稳定性和隐私方面优于十种最先进方法的优越性,此外,GPFL 能够减轻过拟合问题,准确率比基线方法提高了 8.99%。
本论文提出了一种自我感知的个性化联邦学习方法,通过采用贝叶斯分层模型,利用不确定性量化来平衡本地模型改进和全局模型调整,使用不确定性驱动的本地训练步骤和聚合规则来实现。通过实验研究,该方法显著提高了个性化性能。
Apr, 2022