本文调查了针对非独立同分布数据的个性化联邦学习的研究,此技术可让多方参与联合学习,从而达到隐私保护的目的。
Mar, 2020
本文提出了一种针对统计异质性和非独立同分布数据的个性化全局模型联邦学习方法,使用混合剪枝和非结构化剪枝找到每个客户端的小型子网络来实现模型的个性化,实验结果表明,具有相似标签数据的客户端共享类似的个性化参数。
May, 2021
该研究提出了Motley,一个用于个性化联邦学习的基准测试,并比较了几种代表性的方法,以此来提高发展个性化和异构感知联邦学习以及相关领域的可再生能力,并激起了一些开放性问题。
Jun, 2022
本文提出了一种名为FedNH的新方法,通过组合类原型的均匀性和语义来改善在分类设置中的数据不均衡问题。实验证明了该方法对于局部模型的个性化和概括性都有显著的提高。
Dec, 2022
本文介绍了一种部分个性化的联邦学习(FL)方法,旨在在个性化和全局训练的灵活性之间取得平衡,并提出了一种简单的算法来解决数据异构性问题。
May, 2023
提出了一种名为Federated Multi-Level Prototypes (FedMLP) 的新型联邦学习框架,以应对异构数据分布和动态任务的联邦学习需求,并引入原型和语义原型来缓解概念漂移问题。
Dec, 2023
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
本研究关注于联邦学习中的客户端模型异质性问题,并提出了适用于模型异质性场景的有效、适应性强的联邦框架FedP3及其差分隐私变体DP-FedP3,并从理论上验证了它们的高效性。
Apr, 2024
使用堆叠泛化的新型个性化方法,在保护隐私的情况下,直接发送模型来训练元模型,并在水平、混合和垂直分区联邦中适用各种模型类型和隐私保护技术,从而创建更适合个体客户数据的多个模型,并通过多方面评估每位客户对联邦的贡献。
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在MNIST、FEMNIST和CRIFAR10数据集上的通信效率优于其他联邦学习方法。
Jun, 2024