自我感知个性化联邦学习
该论文研究了联邦学习(FL)的个性化策略问题,并介绍了一种通过元网络(meta-nets)在 FL 网络中学习个性化策略的框架,该框架通过学习元网络的批量归一化和学习率参数来为每个客户端生成定制的个性化策略。实证结果表明,该框架在标签偏移和特征偏移情况下优于多种标准的手工个性化基线方法。
Oct, 2023
本文提出了一种自适应个性化联邦学习算法,采用局部和整体模型混合的方法来提高模型的个性化能力,并使用通信高效的最优化方法来协同学习个性化模型,实验证明了该算法的有效性与泛化理论的正确性。
Mar, 2020
在联邦学习中,为了解决不同客户端的局部数据异构性所带来的性能下降问题,提出了一种名为 pFedLA 的简单而有效的算法,该算法通过将关注机制纳入客户端的个性化模型,并保持关注块客户化,从而在任何联邦学习方法中提高其性能。
Apr, 2023
本文提出了一种个性化的联邦学习方法,通过每个客户只与相关客户联合训练模型,实现客户自定义目标分布的最优加权模型组合,且不需要知道任何数据分布或客户相似性的先验知识,该方法在多个联邦学习场景和数据集下表现优异,同时也支持个性化的迁移学习。
Dec, 2020
通过提出一种新的联邦学习框架,使得个性化联邦学习可以学习一个强健的全局模型,以在联邦学习系统中对未知的 / 测试客户端达到与个性化模型相当的性能。
Mar, 2024
本论文通过策略提出了 Personalisation-aware Federated Learning (PaFL) 的模型,在语言任务中减少了 50% 的表现不佳客户端的数量,在图像任务中也避免了表现不佳客户端数量翻倍的情况,提高了边缘设备参与联邦学习的效率并有望在未来实验和理论分析上得到更多的应用。
May, 2023
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
本文介绍了一种名为 DyPFL 的动态个性化联邦学习技术,将受训练意愿不同的客户纳入考虑,以提高收敛性能。结果表明,该算法可以在各种条件下优于替代个性化方法。
Aug, 2022
提出了一种名为 Delta-SGD 的算法用于优化联邦学习模型中的超参数,该算法能够在各个客户端之间自适应优化不同的参数,实验结果表明,该算法可以在不需要额外调整的情况下,在 73% 的实验中达到 TOP-1 准确度,在 100% 的实验中达到 TOP-2 准确度。
Jun, 2023
使用堆叠泛化的新型个性化方法,在保护隐私的情况下,直接发送模型来训练元模型,并在水平、混合和垂直分区联邦中适用各种模型类型和隐私保护技术,从而创建更适合个体客户数据的多个模型,并通过多方面评估每位客户对联邦的贡献。
Apr, 2024