具有本地即时误差补偿的高效分布式学习
本文研究在分布式学习场景下,提出了一种具有容错性的压缩算法,通过对工作节点和参数服务器上的数据进行错误补偿以提高其效率和收敛率,并进行了理论和实证研究。
May, 2019
提出了一种基于 Nesterov 的动量的分布式压缩的 SGD 方法,通过两种方式压缩梯度并将梯度分块,每个梯度块都以 1 位格式进行压缩和传输,并实现了近 32 倍的通信降低,实验表明该方法与精度相同的动量 SGD 收敛速度相同,并在分布式 ResNet 训练中达到与全精度梯度动量 SGD 相同的测试精度,而时间缩短了 46%。
May, 2019
本文研究比较了两种标准的数据压缩方法:分布式量化 SGD 和分布式 SGD 反馈错误的压缩机在非独立同分布数据集的训练效果,结果表明,后者比前者更适合非独立同分布数据,但两种方法都会因为数据分布的不均匀而变慢。文中还提出一种对于强凸问题有效的方法和适用于线性压缩器的更通用的方法。
Sep, 2020
本文提出了一种统一的分析分布式 SGD 各种变体的方法,涵盖了不同的量化 SGD、误差补偿 SGD 和延迟更新 SGD 变体,并通过一个定理推导了其所有方法的复杂度结果。在此基础上,我们开发了 16 种新的方法,其中包括第一种基于误差反馈和梯度差分量化的 EC-SGD-DIANA 方法和第一种具有误差反馈和方差缩减的分布式随机方法 EC-LSVRG-DIANA。
Oct, 2020
本文提出了误差补偿量化随机梯度下降算法以优化数据分布式学习中的性能瓶颈,并对其收敛性行为进行了理论分析,同时通过实验证明了该算法在梯度压缩方面具有较大优势。
Jun, 2018
研究表明,用于分布式学习的偏置压缩算子可以显著提高通信效率并达到线性收敛率,其性能优于其无偏压缩器。它们可用于随机梯度下降和分布式随机梯度下降,并且存在许多具有良好理论保证和实际性能的新偏置压缩器可供选择。
Feb, 2020
CSER 算法结合高压缩率技术,引入了误差重设和梯度以及模型的部分同步,可将 CIFAR-100 的分布式训练加速近 10 倍,ImageNet 加速 4.5 倍。
Jul, 2020
分布式优化和学习,尤其是在联邦学习的现代框架中,通信对于慢速和昂贵的问题至关重要。我们介绍了一种名为 LoCoDL 的通信高效算法,它利用了本地训练和压缩这两种常用且有效的技术,通过降低通信频率和发送短的比特流而不是完整的浮点数向量。LoCoDL 适用于包括广泛使用的稀疏化和量化方法在内的大类无偏压缩器。在具有强凸函数的一般异构情况下,LoCoDL 可以从本地训练和压缩中获益,并且在功能条件数和模型维度方面具有双重加速的通信复杂度。实践中证实,LoCoDL 优于现有算法。
Mar, 2024
本文提出了一种新的构造方法,可以将任何收缩压缩器转化为感应无偏压缩器,从而大大减少了内存要求,提高了通信复杂性保证和使用的方法,特别是在对合同收缩压缩器进行处理时,相对错误反馈(EF)有更好的理论和实践效果。
Jun, 2020
介绍了一种使用低秩线性压缩器直接压缩相邻工作器之间的模型差异的简单算法,在分布式机器学习训练中具有实际应用价值,无需额外的超参数,收敛速度比之前的方法快,并且在一系列深度学习基准测试中的表现与经过调优的最先进压缩算法相当。
Aug, 2020