该论文研究了去中心化训练深度学习模型的关键因素,提出使用通信压缩来解决网络带宽有限的问题,并通过 Choco-SGD 算法实现了高压缩下的快速收敛,同时支持更高压缩比例,实验结果表明在多种应用场景下具有很好的实际性能表现。
Jul, 2019
介绍了一种使用低秩线性压缩器直接压缩相邻工作器之间的模型差异的简单算法,在分布式机器学习训练中具有实际应用价值,无需额外的超参数,收敛速度比之前的方法快,并且在一系列深度学习基准测试中的表现与经过调优的最先进压缩算法相当。
Aug, 2020
提出了一种新的基于随机压缩算子的一阶随机算法和方差约简技术,能够在去除了通信中数据量的一定压缩的前提下,快速地在分散的装置上完成模型的机器学习训练并收敛于最优解。
Nov, 2020
研究分布式优化和机器学习中如何通过压缩信息和设计通信协议来降低通信时间并保持算法收敛性的方法和框架。
Feb, 2019
本文研究了利用通信压缩的分布式随机优化算法的性能上限,并提出了 NEOLITHIC 算法,该算法在温和条件下实现所建立的理论下限。
May, 2023
通过实验和理论分析,本文表明在深度神经网络的分布式数据并行训练中,面向单个层的压缩比面向整个模型的压缩方式更好,但实验也显示,具体训练模型和压缩率都可能导致实际收敛率的变化。因此,本文建议深度学习框架应支持面向单个层和整个模型的压缩方式。
Nov, 2019
本文探讨了在分布式优化中,无偏压缩是否降低了总通讯成本,最终给出了条件和理论分析支持独立无偏压缩可以将总通讯成本降低到 O (根号下 min {n,kappa})。
本文提出深度梯度压缩 (DGC),通过动量修正、局部梯度截断、动量因子掩模和预热训练,使得分布式 SGD 中 99.9% 的梯度交换变得不重要,从而大大减少通信带宽需求,有效保持模型准确率,支持在 1Gbps 以太网和移动设备上进行大规模分布式训练。
Dec, 2017
AdaGossip 是一种新的技术,根据相邻代理之间的压缩模型差异自适应调整共识步长,通过大量实验证明在分布式学习中具有压缩通信时,相比于当前的最先进方法,在测试准确率上实现了卓越的性能(提高了 0-2% 的测试准确率)。
Apr, 2024
分布式优化和学习,尤其是在联邦学习的现代框架中,通信对于慢速和昂贵的问题至关重要。我们介绍了一种名为 LoCoDL 的通信高效算法,它利用了本地训练和压缩这两种常用且有效的技术,通过降低通信频率和发送短的比特流而不是完整的浮点数向量。LoCoDL 适用于包括广泛使用的稀疏化和量化方法在内的大类无偏压缩器。在具有强凸函数的一般异构情况下,LoCoDL 可以从本地训练和压缩中获益,并且在功能条件数和模型维度方面具有双重加速的通信复杂度。实践中证实,LoCoDL 优于现有算法。
Mar, 2024