个性化联邦学习与自适应特征聚合及知识转移
提出了一个基于个性化模型的联邦学习框架来应对异构模型的限制,并使用参数化群体知识转移训练算法来使客户端间自适应强化协作,从而实现个性化模型训练,并与现有方法进行比较得到显著的性能提升。
Nov, 2021
该研究提出了一种针对非IID数据的个性化联邦学习方法,使用专家混合模型来学习相似的客户,即使在病理性非IID环境中,我们的方法仍然能够比本地模型获得高达4.38%的精度优势。
Jun, 2022
提出一种结合局部模型聚合与神经网络解耦技术的个性化联邦学习算法(pFedSim),在保护数据隐私的前提下,显著提高模型精度且计算和通信开销低。
May, 2023
提出了一种名为GPFL的新的个性化联邦学习方法,该方法在每个客户端上同时学习全局和个性化的特征信息,并在六个数据集上展示了GPFL在效果、可扩展性、公平性、稳定性和隐私方面优于十种最先进方法的优越性,此外,GPFL能够减轻过拟合问题,准确率比基线方法提高了8.99%。
Aug, 2023
提出了基于特征提取器共享的异构个性化联邦学习方法(pFedES),该方法在不同客户端的本地模型中引入小型同质特征提取器,通过迭代学习方法进行训练,实现全局泛化知识和本地个性化知识的交换和共享,其理论上证明了pFedES能够在墙时收敛。在两个真实数据集上的广泛实验中,与六种最先进的方法相比,pFedES构建了最准确的模型,同时通信和计算成本较低,与最佳基准相比,测试准确性提高了1.61%,通信和计算成本分别降低了99.6%和82.9%。
Nov, 2023
提出了一种名为Federated Semantic Similarity Aggregation (FedSSA)的方法,利用语义相似性来实现FL中的知识传递,同时通过自适应参数稳定策略实现全局到局部的知识传输,从而实现更高的准确性、通信效率和计算效率。
Dec, 2023
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
使用堆叠泛化的新型个性化方法,在保护隐私的情况下,直接发送模型来训练元模型,并在水平、混合和垂直分区联邦中适用各种模型类型和隐私保护技术,从而创建更适合个体客户数据的多个模型,并通过多方面评估每位客户对联邦的贡献。
Apr, 2024
基于模型异构的个性化联邦学习通过自适应特征混合(pFedAFM)实现了训练不同结构个性化模型的联邦学习客户端,以应对非独立同分布的本地数据。
Apr, 2024
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在MNIST、FEMNIST和CRIFAR10数据集上的通信效率优于其他联邦学习方法。
Jun, 2024