个性化联邦学习基于堆叠
本文研究了联邦学习的个性化变种,在Model-Agnostic Meta-Learning框架下,通过个性化Federated Averaging算法,根据不同用户数据的分布差异,探讨其性能的影响。
Feb, 2020
本文提出了一种个性化的联邦学习方法,通过每个客户只与相关客户联合训练模型,实现客户自定义目标分布的最优加权模型组合,且不需要知道任何数据分布或客户相似性的先验知识,该方法在多个联邦学习场景和数据集下表现优异,同时也支持个性化的迁移学习。
Dec, 2020
本文介绍了一种名为PFA的新框架,旨在以联邦方式实现更好的个性化结果。PFA利用神经网络的稀疏性生成隐私保护表示,并使用这些表示来高效识别具有相似数据分布的客户端,从而进行分组并在联邦模型上进行群体式联邦学习来完成自适应过程。该框架能够保障客户端隐私,并在多个FL数据集上通过实验证明了其有效性和优越性。
Mar, 2021
研究个性化联邦学习中如何利用服务器数据来提高meta-gradient计算以增加个性化性能的FedSIM方法,并通过各种基准测试和消融实验证明其优于现有方法,不仅计算效率更高,而且收敛速度高达34.2%。
May, 2022
本文介绍了在联邦学习框架中处理个性化、隐私保证和公平性三者之间的相互关系,通过引入$d$-privacy方法,提供个性化模型训练、形式上的隐私保证和显著优于传统联邦学习模型的群体公平性。
Sep, 2023
在本文中,我们基于联邦学习的范式,通过使用规范模型来捕捉异质人群的基本特征并利用会员向量揭示客户的偏好,开发了一个灵活且可解释的个性化框架 PPFL(Population Personalized Federated Learning),并探索了与多任务 PFL、聚类 FL 和解耦 PFL 三个主要分支的关系,证明了 PPFL 的优势。我们提出了一个新颖的随机块坐标下降算法来解决 PPFL(一个非凸约束优化问题)并给出了收敛性质。通过在病理数据集和实际数据集上进行实验,结果验证了 PPFL 的有效性。
Oct, 2023
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
本研究针对联邦学习中数据层异构性的问题,提出了一种新的联邦原型修正方法与个性化相结合的方案,称为偏斜异构联邦学习(SHFL)。该方法通过构建平衡的决策边界和修正经验原型,显著提高了个性化与普适性的平衡表现,超越了当前的先进技术。
Aug, 2024
本研究解决了个性化联邦学习中统计异质性对模型性能的影响,提出了一种新方法:个性化联邦学习与自适应特征聚合及知识转移(FedAFK)。该方法通过平衡全局模型知识与本地数据个性化的关系,显著提高了在非独立同分布数据上的个性化模型性能。
Oct, 2024