DisPFL:去中心化稀疏训练,实现通信高效的个性化联邦学习
本文提出名为HeteroFL的新型联邦学习框架,旨在解决具有非常不同计算和通信能力的异构客户端的问题,并通过几种策略增强FL训练。通过在三个数据集上进行五个计算复杂性级别的三种模型架构的广泛实证评估,通过自适应分配子网络来提高FL训练的计算和通信效率。
Oct, 2020
本论文提出一种名为FedSpa的新型PFL方案,它采用个性化稀疏掩码来在边缘上自定义稀疏的本地模型,理论和实验表明,FedSpa不仅节省了通信和计算成本,而且在模型准确性和收敛速度方面表现优异。
Jan, 2022
本文提出通过在个体边缘设备上训练个性化模型以取代传统机器学习模型,以解决数据异质性带来的问题,并对新算法 Loopless Gradient Descent 进行了压缩优化,实验结果表明该算法比其他基于压缩的算法运行效率更高且收敛速度不低于 vanilla SGD。
Sep, 2022
提出一种名为 pFedGate 的方法,通过自适应和高效地学习稀疏本地模型来实现高效个性化联邦学习,并通过轻量级可训练的门控层使客户端生成不同的稀疏模型,同时考虑到异构的数据分布和资源限制,实现了计算和通信的效率提高,理论上的收敛性和泛化误差更优越,实验证明该方法相对于同类方法能够同时实现更高的全局准确性、个体准确性和效率,并能够适应不同的数据分布。
May, 2023
本文提出了一种名为DFedAlt的个性化联邦学习框架,采用分散的部分模型训练方法,取得了与目前最先进的基准模型相媲美或更好的状态。该算法通过依次更新共享和个性化参数,在点对点的方式构建局部个性化模型,同时采用局部SAM(Sharpness Aware Minimization)优化器来更新共享参数,从而有效地解决了模型共享一致性不足和通信成本过高等问题。
May, 2023
提出了一种新颖的DA-DPFL稀疏到更稀疏的训练方案,通过动态聚合逐渐减少模型参数,从而在保留关键学习期间的足够信息的同时实现了能耗大幅降低,并在测试准确性上明显优于DFL基准。
Apr, 2024
个性化联邦学习(PFL)在每个客户端寻找最优个性化模型,我们提出了一种分布式的个性化联邦学习(DPFL)框架,通过引入随机梯度推送和部分模型个性化,实现了线性分类器的个性化,达到了更好的收敛速度。
May, 2024
SpaFL提出了一个通信高效的联邦学习框架,优化了稀疏模型结构来避免大规模通信和计算资源消耗,通过定义可训练的阈值来剪枝连接参数以实现结构化稀疏性,只通过服务器和客户端之间的阈值通信来学习如何剪枝,利用全局阈值提取聚合参数重要性来更新模型参数,并通过推导SpaFL的泛化界限,证明了稀疏性与性能之间的关系,实验结果表明SpaFL在准确性方面改进的同时相比稀疏基准需要更少的通信和计算资源。
Jun, 2024
本文针对个性化联邦学习(pFL)在平衡内存开销与模型准确性方面的挑战,提供了实证分析。通过评估十种主流pFL技术,研究表明个性化聚合方法在通信和计算效率上具有最快收敛速度,而其他方法如微调和多目标学习则在数据异质性和资源消耗方面存在局限,强调了通信效率在pFL扩展中的关键作用。
Sep, 2024