pFedAFM:异构联邦学习中基于批次的个性化自适应特征混合
提出了基于特征提取器共享的异构个性化联邦学习方法 (pFedES),该方法在不同客户端的本地模型中引入小型同质特征提取器,通过迭代学习方法进行训练,实现全局泛化知识和本地个性化知识的交换和共享,其理论上证明了 pFedES 能够在墙时收敛。在两个真实数据集上的广泛实验中,与六种最先进的方法相比,pFedES 构建了最准确的模型,同时通信和计算成本较低,与最佳基准相比,测试准确性提高了 1.61%,通信和计算成本分别降低了 99.6% 和 82.9%。
Nov, 2023
通过引入混合专家方法,我们提出了一种新颖的模型异构个性化联邦学习算法(FedMoE),用于解决当前模型异构个性化联邦学习方法中的数据和模型隐私、模型性能、通信和计算成本等问题。该算法通过在本地训练过程中结合全局和本地特征来提高模型的个性化能力,并通过信息聚合实现跨客户端的模型参数融合。
Feb, 2024
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
MuPFL 是一种创新的个性化联邦学习框架,通过多层次结构完全利用不同层次的计算资源,解决数据异质性对模型偏差的影响,缓解过拟合、加速训练,提高分类准确性,并在非独立同分布和长尾条件下取得显著的有效性和效率方面的进展。
May, 2024
该研究针对现有的 PFL 方法存在的局限性,提出了一种名为 FedGMM 的新方法,该方法利用高斯混合模型在多个客户端之间适应输入数据分布,实现更好的性能,并且可以适应新的客户端且具有不确定性量化的能力。
May, 2023
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
本文提出了一种新颖的框架 pFedHR,用于解决联邦学习中模型异质性的实际挑战,通过利用异构模型重组实现个性化的联邦学习,在服务器端将异构模型个性化问题看作模型匹配优化任务,自动动态生成多样、具有信息量的个性化模型,减轻了使用具有不同分布的公共数据对客户数据的不利影响,并在实验结果中显示 pFedHR 在三个数据集上在 IID 和非 IID 设置下优于基线方法。
Aug, 2023
该研究提出了一种针对非 IID 数据的个性化联邦学习方法,使用专家混合模型来学习相似的客户,即使在病理性非 IID 环境中,我们的方法仍然能够比本地模型获得高达 4.38%的精度优势。
Jun, 2022
提出了一种名为 Federated Semantic Similarity Aggregation (FedSSA) 的方法,利用语义相似性来实现 FL 中的知识传递,同时通过自适应参数稳定策略实现全局到局部的知识传输,从而实现更高的准确性、通信效率和计算效率。
Dec, 2023
Federated Modular Network (FedMN) is a novel Personalized Federated Learning approach that adapts to the joint distribution among local clients and produces personalized module block selection with a light-weighted routing hypernetwork, resulting in more effective and efficient learning compared to existing methods
Oct, 2022