通信高效的联邦学习时间相关稀疏化
本文提出了一种公平性感知的梯度稀疏化方法,以及一种自适应梯度稀疏化技术,能够在控制梯度稀疏度的情况下,最小化整体训练时间,实验结果表明,相对于传统方法,通过本文所提方法,能够在有限的训练时间内提升40%的模型准确度。
Jan, 2020
本文提出了一种称为Federated Dynamic Sparse Training(FedDST)的novel FL框架,旨在动态提取和训练目标网络中的稀疏子网络,并实现了在设备计算和网络通信方面的高效,相对于固定稀疏掩模的方法,它在本地异质性适应和FL性能方面具有较大的优势,在非i.i.d FL设置下,FedDST在数据传输上的表现显著优于竞争性算法。
Dec, 2021
在联邦学习中,通过使用随机二进制掩码学习最佳稀疏随机网络,避免了每轮从客户端向服务器交换权重更新的大量通信成本,大幅提高了准确性、收敛速度和模型大小,在低比特率模式下通信效率显著优于相关基准。
Sep, 2022
本研究提出了一种新的方法,用于增强随机联合学习中的通信效率,该方法在超参数随机网络上进行训练。通过优化二进制掩码而不是模型权重,实现对稀疏子网络的表征,其泛化效果与更小的目标网络相当好。与传统的联合学习中浮点权重相比,仅交换稀疏的二进制掩码,从而将通信成本降低到每个参数至多1个比特。通过实验证明,之前最先进的随机方法无法找到能够使用一致损失目标减少通信和存储开销的稀疏网络。为了解决这个问题,我们提出在本地目标中添加正则化项,以在子网络之间消除冗余特征并鼓励更稀疏的解决方案。大量实验证明,在一些实例中,与文献相比,通信和内存效率显著提高了五个数量级,并且在验证准确性方面几乎没有性能下降。
Sep, 2023
本文介绍了一种名为FLARE的新算法,通过对嵌入在FL过程中的累积拉取更新模型进行正则化,提供了解决过期效应并将稀疏性推向异常水平的强大解决方案。FLARE的性能通过广泛的实验验证,在不同且复杂的模型上实现了显著的稀疏水平(超过当前技术水平的10倍以上)以及明显改善的准确性。此外,还开发了一个开源软件包,以造福相关领域的研究人员和开发人员。
Dec, 2023
基于时间效率的异步稀疏量化联邦学习(TEASQ-Fed)能够利用边缘设备异步参与训练过程,并通过控制参数选择适当数量的并行边缘设备,进一步通过缓存机制和基于模型陈旧程度的加权平均来提高准确性,同时利用稀疏化和量化的方法压缩中间数据以加速训练,实验结果显示TEASQ-Fed提高了准确性(高达16.67%)且加快了模型训练(最多两倍速)。
Dec, 2023
我们引入FedComLoc算法,集成了实用和有效的压缩技术到Scaffnew算法中,以进一步提高通信效率。通过使用流行的TopK压缩器和量化技术进行广泛实验,证明了在异构环境中大幅减少通信开销的能力。
Mar, 2024
该研究论文介绍了稀疏训练和加速通信在Federated Learning中的整合方法Sparse-ProxSkip,并在大量实验证明了其良好性能。
May, 2024
SpaFL提出了一个通信高效的联邦学习框架,优化了稀疏模型结构来避免大规模通信和计算资源消耗,通过定义可训练的阈值来剪枝连接参数以实现结构化稀疏性,只通过服务器和客户端之间的阈值通信来学习如何剪枝,利用全局阈值提取聚合参数重要性来更新模型参数,并通过推导SpaFL的泛化界限,证明了稀疏性与性能之间的关系,实验结果表明SpaFL在准确性方面改进的同时相比稀疏基准需要更少的通信和计算资源。
Jun, 2024