May, 2023
Global-QSGD: 分布式学习的实用无浮点量化算法和理论保证
Global-QSGD: Practical Floatless Quantization for Distributed Learning
with Theoretical Guarantees
TL;DR本文介绍了一种新的全局比例缩放量化算子 Global-QSGD,用于加速分布式训练。Global-QSGD 是第一个在所有约束条件下都可证明加速分布式训练的压缩机制,它通过在压缩误差和通信节省之间取得平衡来实现其加速效果,并且不需要昂贵的误差反馈。同时,文章还对通信效率在硬件配置方面的优化进行了大量的理论和实验评估。