分布式优化的无偏单尺度和多尺度量化器
提出了一种名为 Quantized SGD 的压缩梯度下降的算法,使用该算法可以在降低通信代价的同时保证收敛,且在图像分类和自动语音识别等多个实验中表现优异。
Oct, 2016
对于分布式算法,通过对随机梯度下降(SGD)的压缩(如 top-k 或 random-k)等技术进行分析,发现它在进行误差补偿的情况下,能够实现与传统 SGD 相同的收敛速度,降低数据通信量达到更好的分布式可扩展性。
Sep, 2018
本文研究比较了两种标准的数据压缩方法:分布式量化 SGD 和分布式 SGD 反馈错误的压缩机在非独立同分布数据集的训练效果,结果表明,后者比前者更适合非独立同分布数据,但两种方法都会因为数据分布的不均匀而变慢。文中还提出一种对于强凸问题有效的方法和适用于线性压缩器的更通用的方法。
Sep, 2020
通过研究发现深度模型的梯度统计在训练过程中发生变化,于是引入两种自适应量化方案 ALQ 和 AMQ,显著改善了 CIFAR-10 和 ImageNet 的验证准确率,且更具鲁棒性。
Oct, 2020
本研究旨在提出一种具有依赖误差补偿机制的 Qsparse-local-SGD 算法,该算法采用聚合式稀疏化和量化,以及局部计算方法,并且与其他算法相比在解决大规模学习模型中的通信问题上具备潜在的优越性。
Jun, 2019
本文提出了误差补偿量化随机梯度下降算法以优化数据分布式学习中的性能瓶颈,并对其收敛性行为进行了理论分析,同时通过实验证明了该算法在梯度压缩方面具有较大优势。
Jun, 2018
本文研究了基于梯度稀疏化的分布式深度神经网络的训练方法,证明了在一定的解析条件下,采用基于梯度幅值优先选择梯度部分更新方法具有收敛性,并验证了该方法的有效性并探究了其收敛条件。
Sep, 2018
本文提出了一种新的集成梯度方法来进行分布式机器学习,其通过量化计算的梯度避免信息不足的梯度通信并高效减少通信开销。实验证明,与现有的基于梯度或随机梯度的算法相比,该算法可以显著减少通信量和通信轮数。
Sep, 2019
我们提出了一种专门针对重尾梯度进行压缩的新方案,该方案将梯度截断和量化有效地结合在一起,并在通信受限的分布式随机梯度下降框架中进行了巧妙实现,我们通过理论分析和与其他基准的比较实验证明了该方法在管理分布式学习环境中的重尾梯度方面的有效性。
Feb, 2024
研究了分布式优化问题,在量化梯度、降低方差的基础上,提出新的缩短收敛时间的方法,实现了对于任意量化梯度的线性收敛,解决了弱凸和非凸问题,并在实验中验证了其效率优于传统方法。
Apr, 2019