May, 2019

通过-1和+1的编码分解实现多精度量化神经网络

TL;DR为了应用DNN在移动设备中,我们提出了压缩QNN的新编码方案,使用{-1, +1}将其分解成多个二进制网络,使用位运算(xnor和bitcount)实现模型压缩、计算加速和资源节约。我们的方法非常适合在FPGA和ASIC上使用,验证了在大规模图像分类(例如ImageNet)和物体检测任务中具有与全精度相近的性能。