本文介绍一种针对分布式学习中计算和通信优化的显式 FL 剪枝框架 (FedLP),采用层次剪枝在本地训练和协作更新中,两种特定方案的实验验证表明 FedLP 可以减轻通信和计算瓶颈并具有良好的性能。FedLP 是将层次剪枝正式引入 FL 的第一个框架。
Mar, 2023
这项研究介绍了一种利用知情剪枝的自动联邦学习方法,名为 AutoFLIP,在本地客户端和全局服务器中动态剪枝和压缩深度学习模型。它利用联邦丧失探索阶段研究来自不同数据集和丧失的模型梯度行为,提供参数重要性的见解。我们的实验证明 AutoFLIP 在具有强非独立同分布数据的场景中有显著的改进,突出了它处理计算约束并实现更好的全局收敛能力。
May, 2024
本文在无线网络中为分层式联邦学习引入了模型剪枝技术,通过联合优化剪枝比例和无线资源分配,旨在最大化模型收敛速度以达到给定延迟阈值,并通过解耦优化问题和使用 KKT 条件得出了剪枝比例和无线资源分配的闭式解,并通过模拟结果展示了模型剪枝在 HFL 中实现了减少了约 50%的通信成本而实现了相似的学习准确率。
May, 2023
提出了一种新的联邦学习方法 PruneFL,其通过自适应和分布式参数修剪来减少通信和计算开销,并在维持类似于原始模型的准确度的同时,利用全局数据集合进行模型训练。
Sep, 2019
本研究通过动态采样和 Top-K 选择性掩蔽这两种方法,提高了联邦学习的通信效率,并在公共数据集上进行实验,证明了该方法的有效性。
Mar, 2020
通过将学习模型分为全局部分和个性化部分,以实现模型剪枝和个性化,本文提出了一种解决异构设备数据、计算和通信延迟以及非独立同分布数据的联邦学习框架,并通过数学分析研究了其收敛性、计算和通信延迟,并最终通过优化问题得到了剪枝比例和无线资源分配的闭式解。实验结果表明,相比只进行模型个性化的方案,该框架能够显著减少约 50%的计算和通信延迟。
Sep, 2023
FedMap 是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedMap 在多样的设置、数据集、模型架构和超参数中进行了广泛评估,证明了在 IID 和非 IID 环境下的性能,并相较于基线方法,FedMap 能够达到更稳定的客户端模型性能,并在不降低准确性的情况下至少实现 80% 的剪枝。
Jun, 2024
我们对模型剪枝技术在联邦学习中隐私保证进行了第一次研究,推导出了剪枝模型泄露信息量的信息论上界,并通过实验验证了这些理论发现,结果显示我们提出的 PriPrune 算法显著改善了隐私和模型性能的平衡。
Oct, 2023
本文研究压缩技术对典型图像分类任务的联邦学习的影响,并证明了一种简单的方法可以在保持不到 1% 准确率损失的同时压缩 50% 的消息,与最先进的技术相媲美。
DeltaMask 是一种新颖的方法,通过使用随机掩蔽检测基金会模型中的高效子网络,并利用客户端掩蔽的随机性和稀疏性,使用概率滤波器将更新压缩成紧凑的灰度图像,在超低比特率下有效地微调基金会模型,极大地提升通信效率,同时保持模型性能。
Nov, 2023