跨设备联邦学习下行压缩
采用两种新策略(global model压缩和Federated Dropout)和现有压缩方法的结合,可以综合降低联邦学习对服务器到客户端通信的成本高达14倍、本地计算量1.7倍并在上传通信方面降低28倍,同时不降低最终模型的质量,从而全面降低了联邦学习对客户端设备资源的影响。
Dec, 2018
本研究提出了Sparse Ternary Compression (STC),一种针对Federated Learning环境的新型压缩框架。实验表明,STC在常见Federated Learning场景下,即使客户端持有非iid数据、使用小的batch size进行训练或参与率较低,也比Federated Averaging表现更佳。此外,即使客户端持有iid数据并使用中等大小的批次进行训练,STC仍在更少的训练迭代和更小的通信预算内实现了固定目标准确度,表现超越了Federated Averaging。
Mar, 2019
本论文系统地研究了通信成本和模型准确性之间的权衡,提出了一种自适应网络压缩率最大化最终模型准确性的框架,根据实验结果,这种解决方案可以有效降低网络流量并保持联邦学习中的高模型准确性。
Dec, 2021
提出基于压缩辅助的联邦学习问题,通过将其分解为子问题并基于协作博弈来有效分配无线资源,从而优化了IoT设备和服务器之间的通信,通过积极控制参与学习的设备数量,既可避免训练发散又能保持通信效率。
Jun, 2022
本文提出了一种分布式源模型,旨在从现实世界的分散在客户端上的、可能存在统计异质性但共享共同基础表示的数据中学习压缩器。作者使用了个性化联邦学习方法,从而允许在客户端之间学习全局潜在空间,并采用适应客户潜在分布的个性化熵模型。经验证明,该策略优于仅使用本地方法,这表明在统计异质性的联合设置中,学习压缩也受益于共享全局表示。
May, 2023
通过分析和实验证明可变长度对于Federated Learning中的压缩是有利的,因此提出了Fed-CVLC方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明Fed-CVLC优于现有基准方法,可以提升模型效用1.50%至5.44%,或减少通信流量16.67%至41.61%。
Feb, 2024
本文介绍了一个集成了聚类式联邦学习和模型压缩优势的新型层次式联邦学习框架,包括自适应聚类算法和局部聚合压缩算法。仿真结果证实,我们提出的算法不仅保持了可比较的预测准确性,还显著降低了相对于现有联邦学习机制的能源消耗。
May, 2024
本研究针对现有联邦学习中的数据压缩方法在带宽异质性和非独立同分布数据下,导致的性能下降和延迟问题,提出了一个带宽感知的压缩框架。该方法通过动态调整压缩比和引入参数掩码,显著提升了模型准确性,最大提升达13%,并加快了收敛速度,为未来的通信高效联邦学习研究奠定了基础。
Aug, 2024