互补稀疏化: 面向联邦学习的低开销模型剪枝
提出了一种新的联邦学习方法PruneFL,其通过自适应和分布式参数修剪来减少通信和计算开销,并在维持类似于原始模型的准确度的同时,利用全局数据集合进行模型训练。
Sep, 2019
提出了一种叫作FedPrune的系统,通过剪枝全局模型来解决Federated learning中的系统异构和统计异构所引起的问题,并利用中心极限定理的洞见来实现在非独立同分布数据上的强健性性能,并与Federated Averaging相比,FedPrune提供了更好的鲁棒性和公平性。
Oct, 2021
本文提出一种名为FedTiny的分布式修剪框架,通过自适应批量归一化选择模块和轻量级渐进修剪模块,可在有限的计算和存储资源上定制化地修剪神经网络模型,以适应分布式和机密数据的联合学习。实验结果表明,FedTiny在压缩深度模型的情况下表现出色,并在各项指标上超越了现有基线方法。
Dec, 2022
本研究提出了一种新的通信高效的联邦学习(FL)框架FedCliP,采用自适应学习算法确定参与模型训练的客户端,通过优化算法减少不必要的通信开销。实验结果显示该框架在MNIST、FMNIST和CIFAR-10等数据集上优于目前的FL框架。
Jan, 2023
我们对模型剪枝技术在联邦学习中隐私保证进行了第一次研究,推导出了剪枝模型泄露信息量的信息论上界,并通过实验验证了这些理论发现,结果显示我们提出的PriPrune算法显著改善了隐私和模型性能的平衡。
Oct, 2023
边缘计算允许在边缘设备上部署人工智能和机器学习模型,它们可以从本地数据中学习并协作形成全局模型。联邦学习是一种分布式机器学习技术,旨在在保护数据隐私的同时促进此过程。本文提出了一种新方法——梯度一致性引导的联邦稀疏训练(FedSGC),它将动态稀疏训练和梯度一致性检查集成到联邦学习框架中,以解决高计算和通信成本的限制性设备、数据不同和分布不均以及解决数据中存在的局外数据等问题。我们在具有挑战性的非独立同分布环境中评估了我们的方法,并展示了它在各种场景中与最先进的联邦学习方法相比具有竞争力的准确性,同时最大程度地减少计算和通信成本。
May, 2024
这项研究介绍了一种利用知情剪枝的自动联邦学习方法,名为AutoFLIP,在本地客户端和全局服务器中动态剪枝和压缩深度学习模型。它利用联邦丧失探索阶段研究来自不同数据集和丧失的模型梯度行为,提供参数重要性的见解。我们的实验证明AutoFLIP在具有强非独立同分布数据的场景中有显著的改进,突出了它处理计算约束并实现更好的全局收敛能力。
May, 2024
SpaFL提出了一个通信高效的联邦学习框架,优化了稀疏模型结构来避免大规模通信和计算资源消耗,通过定义可训练的阈值来剪枝连接参数以实现结构化稀疏性,只通过服务器和客户端之间的阈值通信来学习如何剪枝,利用全局阈值提取聚合参数重要性来更新模型参数,并通过推导SpaFL的泛化界限,证明了稀疏性与性能之间的关系,实验结果表明SpaFL在准确性方面改进的同时相比稀疏基准需要更少的通信和计算资源。
Jun, 2024
FedMap是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedMap在多样的设置、数据集、模型架构和超参数中进行了广泛评估,证明了在IID和非IID环境下的性能,并相较于基线方法,FedMap能够达到更稳定的客户端模型性能,并在不降低准确性的情况下至少实现80%的剪枝。
Jun, 2024