面向个性化联邦学习的参数化知识传递
本文提出了一种针对统计异质性和非独立同分布数据的个性化全局模型联邦学习方法,使用混合剪枝和非结构化剪枝找到每个客户端的小型子网络来实现模型的个性化,实验结果表明,具有相似标签数据的客户端共享类似的个性化参数。
May, 2021
本文提出了一种名为上下文化泛化(CG)的新概念,旨在为每个客户端提供更好地适合本地数据分布和更快模型收敛的细粒度上下文知识。作者还提出了CGPFL框架,在多个现实世界的数据集上进行了实验,证明了该方法在测试精度上显著优于最先进的方法。
Jun, 2021
本研究提出了一种适用于高度数据和系统异构的个性化联邦学习框架PerFed-CKT,可使用不同的模型架构,通过簇内共同训练和知识传输来降低通信成本并在测试中获得高精度。
Sep, 2021
本文提出的基于分层贝叶斯模型和变分推断的个人化联邦学习算法,引入全局模型作为潜在变量,以捕捉不同客户端之间的公共趋势,使用变分期望最大化技术训练模型并得出包含客户端参数不确定性和本地模型偏差的置信度评估,进而对客户端参数进行加权,优化全局模型的正则化效果,在多个数据集上进行了大量实证研究并证明了其优越性。
May, 2023
本文提出了一种名为DFedAlt的个性化联邦学习框架,采用分散的部分模型训练方法,取得了与目前最先进的基准模型相媲美或更好的状态。该算法通过依次更新共享和个性化参数,在点对点的方式构建局部个性化模型,同时采用局部SAM(Sharpness Aware Minimization)优化器来更新共享参数,从而有效地解决了模型共享一致性不足和通信成本过高等问题。
May, 2023
在本文中,我们基于联邦学习的范式,通过使用规范模型来捕捉异质人群的基本特征并利用会员向量揭示客户的偏好,开发了一个灵活且可解释的个性化框架 PPFL(Population Personalized Federated Learning),并探索了与多任务 PFL、聚类 FL 和解耦 PFL 三个主要分支的关系,证明了 PPFL 的优势。我们提出了一个新颖的随机块坐标下降算法来解决 PPFL(一个非凸约束优化问题)并给出了收敛性质。通过在病理数据集和实际数据集上进行实验,结果验证了 PPFL 的有效性。
Oct, 2023
Pa3dFL是一个增强容量异构模型的新型框架,通过解耦和选择性地在容量异构模型之间共享知识,提高了本地模型的性能。通过将模型的每个层分解为通用参数和个性参数,并保持通用参数在客户端之间的统一大小并进行直接平均聚合,然后使用可学习的嵌入通过超网络为客户端生成大小变化的个性参数,最后通过自注意模块通过聚合客户端嵌入来实现个性参数的隐式聚合。通过在三个数据集上进行的广泛实验,我们的研究结果表明Pa3dFL在不同的异构设置下始终优于基准方法。此外,与基准方法相比,Pa3dFL表现出竞争性的通信和计算效率,突显了它在不利系统条件下的实用性和适应性。
May, 2024
FedDecomp是一种简单而有效的个性化联邦学习范式,通过参数加法分解来解决数据异构性问题,从而更彻底地解耦共享和个性化知识,实现了比参数划分方法更好的性能。
Jun, 2024
本研究解决了个性化联邦学习中统计异质性对模型性能的影响,提出了一种新方法:个性化联邦学习与自适应特征聚合及知识转移(FedAFK)。该方法通过平衡全局模型知识与本地数据个性化的关系,显著提高了在非独立同分布数据上的个性化模型性能。
Oct, 2024