Dec, 2017

AdaComp:自适应残差梯度压缩用于数据并行分布式训练

TL;DR本文提出了自适应残差梯度压缩(AdaComp)技术,能够在多个领域、数据集、优化器和网络参数上显著地提高深度学习模型的性能,实现全连接层和循环层的端到端压缩率约200倍,卷积层的压缩率约40倍。