Feb, 2021
BSQ:探索混合精度神经网络量化的比特级稀疏性
BSQ: Exploring Bit-Level Sparsity for Mixed-Precision Neural Network
Quantization
TL;DR提出了比特级稀疏量化法(BSQ),通过引入可微比特稀疏正则化,考虑量化权重的每一位作为一个独立可训练变量,实现了每组权重元素的全零位诱导以及实现动态精度降低,使得在CIFAR-10和ImageNet数据集上相对于以往方法,BSQ在各种模型体系结构上获得更高的准确性和比特削减。