May, 2023

随机Top-k稀疏化减少分布式学习的通信

TL;DR本文研究了多种通信压缩方法,包括切割层数减少、top-k限制、量化和L1正则化,并通过分析cut layer size reduction 和 top-k sparsification提出了随机化的top-k sparsification方法来提高模型泛化和收敛性,在相同的压缩程度下取得更好的模型性能。