动态个性化联邦学习与激励
本文提出了一种个性化的联邦学习方法,通过每个客户只与相关客户联合训练模型,实现客户自定义目标分布的最优加权模型组合,且不需要知道任何数据分布或客户相似性的先验知识,该方法在多个联邦学习场景和数据集下表现优异,同时也支持个性化的迁移学习。
Dec, 2020
本文提出了一种针对统计异质性和非独立同分布数据的个性化全局模型联邦学习方法,使用混合剪枝和非结构化剪枝找到每个客户端的小型子网络来实现模型的个性化,实验结果表明,具有相似标签数据的客户端共享类似的个性化参数。
May, 2021
本文提出了一种名为上下文化泛化(CG)的新概念,旨在为每个客户端提供更好地适合本地数据分布和更快模型收敛的细粒度上下文知识。作者还提出了CGPFL框架,在多个现实世界的数据集上进行了实验,证明了该方法在测试精度上显著优于最先进的方法。
Jun, 2021
研究个性化联邦学习中如何利用服务器数据来提高meta-gradient计算以增加个性化性能的FedSIM方法,并通过各种基准测试和消融实验证明其优于现有方法,不仅计算效率更高,而且收敛速度高达34.2%。
May, 2022
该研究提出了一种针对非IID数据的个性化联邦学习方法,使用专家混合模型来学习相似的客户,即使在病理性非IID环境中,我们的方法仍然能够比本地模型获得高达4.38%的精度优势。
Jun, 2022
本文提出了一种一次性个性化解决方案PI-FL,采用基于令牌的奖励机制来激励客户参与个性化训练,克服了客户不愿意参与联邦学习进程的问题,同时确保客户隐私,该方案表现优于其他现有方法,能够生成高质量的个性化模型。
Apr, 2023
本文介绍了个性化联邦学习中客户端协作的新指南,允许客户端与其他客户端共享更多参数,从而改善模型性能。此外,我们还提出了一种名为FedCAC的新联邦学习方法,通过定量指标评估每个参数对非独立分布数据的敏感性,并根据该评估精选合作伙伴。实验结果表明,FedCAC使客户端能够与其他客户端共享更多参数,在客户端数据分布多样的场景下取得了卓越的性能。
Sep, 2023
在本文中,我们基于联邦学习的范式,通过使用规范模型来捕捉异质人群的基本特征并利用会员向量揭示客户的偏好,开发了一个灵活且可解释的个性化框架 PPFL(Population Personalized Federated Learning),并探索了与多任务 PFL、聚类 FL 和解耦 PFL 三个主要分支的关系,证明了 PPFL 的优势。我们提出了一个新颖的随机块坐标下降算法来解决 PPFL(一个非凸约束优化问题)并给出了收敛性质。通过在病理数据集和实际数据集上进行实验,结果验证了 PPFL 的有效性。
Oct, 2023