Feb, 2021

BSQ:探索混合精度神经网络量化的比特级稀疏性

TL;DR提出了比特级稀疏量化法(BSQ),通过引入可微比特稀疏正则化,考虑量化权重的每一位作为一个独立可训练变量,实现了每组权重元素的全零位诱导以及实现动态精度降低,使得在CIFAR-10和ImageNet数据集上相对于以往方法,BSQ在各种模型体系结构上获得更高的准确性和比特削减。