联邦剪枝:利用联邦学习提高神经网络的效率
本文提出一种新的技术解决方案,利用客户端模型的网络修剪和聚合来解决在农业食品领域中数据异构性所带来的问题,该方法可以提高 15.5%至 20%的推理性能,并将本地模型大小减少高达 84%和客户端和服务器之间通信的数据量减少 57.1%至 64.7%。
Apr, 2023
本研究综述了在联邦学习框架下进行自然语言处理的主要挑战,包括算法挑战,系统挑战以及隐私问题,同时还提供了对现有联邦 NLP 评估方法和工具的批评性评估。研究结果呈现出当前研究的空白和未来方向。
Jul, 2021
提出了一种新的联邦学习方法 PruneFL,其通过自适应和分布式参数修剪来减少通信和计算开销,并在维持类似于原始模型的准确度的同时,利用全局数据集合进行模型训练。
Sep, 2019
这项研究介绍了一种利用知情剪枝的自动联邦学习方法,名为 AutoFLIP,在本地客户端和全局服务器中动态剪枝和压缩深度学习模型。它利用联邦丧失探索阶段研究来自不同数据集和丧失的模型梯度行为,提供参数重要性的见解。我们的实验证明 AutoFLIP 在具有强非独立同分布数据的场景中有显著的改进,突出了它处理计算约束并实现更好的全局收敛能力。
May, 2024
本文提出使用联邦学习来训练语音识别模型,并通过对非独立同分布数据分布程度的调整来平衡模型质量和联邦训练计算成本之间的关系,并证明超参数优化和适当使用变分噪声可以弥补非独立同分布数据对模型影响的影响。
Oct, 2020
在异构环境中,提出了一种新颖的联邦学习训练框架,考虑了真实环境中客户端的各种网络速度差异。该框架集成了异步学习算法和修剪技术,有效解决了传统联邦学习算法在涉及异构设备的场景中的低效问题,同时解决了异步算法中某些客户端训练不充分和过时问题。通过在训练过程中逐步恢复模型大小,该框架加快了模型训练速度,同时保留了模型准确性。此外,还引入了改进的联邦学习聚合过程,包括缓冲机制,使异步联邦学习能够像同步学习一样进行操作。另外,在服务器向客户端传输全局模型的过程中进行了优化,减少了通信开销。我们在各种数据集上的实验表明:相对于传统的异步联邦学习和异构联邦学习,我们的方法在减少训练时间和提高收敛准确性方面取得了显著的改进;我们的方法在存在异构客户端和非独立同分布客户端数据的场景中优势更加明显。
Mar, 2024
自动语音识别模型需要大量的语音录音进行训练。本文提出使用动态架构和局部训练方法,在各种设备上使用单一模型,并结合基本联邦学习策略,证明了这种方法的有效性。
May, 2024
本研究关注于联邦学习中的客户端模型异质性问题,并提出了适用于模型异质性场景的有效、适应性强的联邦框架 FedP3 及其差分隐私变体 DP-FedP3,并从理论上验证了它们的高效性。
Apr, 2024