联邦剪枝: 利用联邦学习提高神经网络的效率
提出了一种新的联邦学习方法PruneFL,其通过自适应和分布式参数修剪来减少通信和计算开销,并在维持类似于原始模型的准确度的同时,利用全局数据集合进行模型训练。
Sep, 2019
本文提出使用联邦学习来训练语音识别模型,并通过对非独立同分布数据分布程度的调整来平衡模型质量和联邦训练计算成本之间的关系,并证明超参数优化和适当使用变分噪声可以弥补非独立同分布数据对模型影响的影响。
Oct, 2020
本文提出一种名为FedTiny的分布式修剪框架,通过自适应批量归一化选择模块和轻量级渐进修剪模块,可在有限的计算和存储资源上定制化地修剪神经网络模型,以适应分布式和机密数据的联合学习。实验结果表明,FedTiny在压缩深度模型的情况下表现出色,并在各项指标上超越了现有基线方法。
Dec, 2022
本研究提出了一种新的通信高效的联邦学习(FL)框架FedCliP,采用自适应学习算法确定参与模型训练的客户端,通过优化算法减少不必要的通信开销。实验结果显示该框架在MNIST、FMNIST和CIFAR-10等数据集上优于目前的FL框架。
Jan, 2023
提出了一种基于Collaborative Pruning机制的Model Pruning方法,名为Complement Sparsification(CS)。该方法能够减少通信开销,降低客户端的计算复杂度,并在保持模型准确性的同时实现分布式机器学习,尤其适用于移动端和物联网设备。
Mar, 2023
本文介绍一种针对分布式学习中计算和通信优化的显式FL剪枝框架(FedLP),采用层次剪枝在本地训练和协作更新中,两种特定方案的实验验证表明FedLP可以减轻通信和计算瓶颈并具有良好的性能。FedLP是将层次剪枝正式引入FL的第一个框架。
Mar, 2023
自动语音识别模型需要大量的语音录音进行训练。本文提出使用动态架构和局部训练方法,在各种设备上使用单一模型,并结合基本联邦学习策略,证明了这种方法的有效性。
May, 2024
FedMap是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedMap在多样的设置、数据集、模型架构和超参数中进行了广泛评估,证明了在IID和非IID环境下的性能,并相较于基线方法,FedMap能够达到更稳定的客户端模型性能,并在不降低准确性的情况下至少实现80%的剪枝。
Jun, 2024
本研究针对联邦学习中的计算资源和存储能力有限的问题,提出了一种自动剪枝方案,以提高客户端设备的计算效率并降低通信成本。该剪枝范式动态确定剪枝边界,优化了缺乏硬件支持的移动设备的结构化剪枝算法,实验结果显示,与现有方法相比,该方法在减少89%的参数和90%的FLOPS的同时,保持了准确度,并显著降低了通信开销和推理时间。
Nov, 2024