本研究提出了Sparse Ternary Compression (STC),一种针对Federated Learning环境的新型压缩框架。实验表明,STC在常见Federated Learning场景下,即使客户端持有非iid数据、使用小的batch size进行训练或参与率较低,也比Federated Averaging表现更佳。此外,即使客户端持有iid数据并使用中等大小的批次进行训练,STC仍在更少的训练迭代和更小的通信预算内实现了固定目标准确度,表现超越了Federated Averaging。
Mar, 2019
探讨通信成本优化的异构和联邦学习中用于向量压缩的不确定性原理和Kashin压缩方案。
Feb, 2020
本研究引入了一种名为阿尔忒弥斯的框架,旨在解决分布式或联邦学习中的通信限制和设备部分参与的问题。该框架可在双向压缩信息方面改善现有算法,并提供了快速收敛率和针对部分参与设备挑战的解决方案。
Jun, 2020
通过定期压缩通信的算法,分析其收敛性并探讨其与局部计算的关系,提出了一种本地梯度追踪方案,以缓解数据异质性,实现了更快的收敛速度和更好的算法效果。
Jul, 2020
通过使用压缩技术来减少通信成本,我们研究了在压缩向量所需的比特数和压缩误差之间的基本权衡,为最坏情况和平均情况提供了紧密的下界。我们引入了一种高效的压缩算子和一种简单的压缩算子,它们都能达到最低下界,并在实验中取得了很好的效果。
Oct, 2020
在可扩展联邦学习中,我们利用客户端和服务器之间的密切联系,提出一种框架,将客户端的分布与服务器的先数据分布进行了比较,大大减少了通信开销,同时保证了测试精度。
Jun, 2023
提出了一种新的技术,用于在私有联邦学习中降低通信量,而无需设置或调整压缩率。我们的实时方法根据训练过程中引入的误差自动调整压缩率,同时通过使用安全聚合和差分隐私保证可证明的隐私保护。我们的技术在均值估计中可以证明是最优的,这意味着它们可以根据问题的“难度”进行最小的交互式调整。我们通过在真实数据集上取得有利的压缩率而无需调整来证明我们方法的有效性。
Jul, 2023
通过多样的虚拟学习方法,本文提出了对压缩联邦学习算法进行改进的方法,并验证了其在通信和计算复杂性方面的出色表现。
Aug, 2023
本文研究压缩技术对典型图像分类任务的联邦学习的影响,并证明了一种简单的方法可以在保持不到1%准确率损失的同时压缩50%的消息,与最先进的技术相媲美。
Oct, 2023
本研究针对现有联邦学习中的数据压缩方法在带宽异质性和非独立同分布数据下,导致的性能下降和延迟问题,提出了一个带宽感知的压缩框架。该方法通过动态调整压缩比和引入参数掩码,显著提升了模型准确性,最大提升达13%,并加快了收敛速度,为未来的通信高效联邦学习研究奠定了基础。
Aug, 2024