构建有效的低比特宽度卷积神经网络
该研究考虑了使用不同精度数据的卷积神经网络对其分类准确性的影响,发现误差容限不仅在不同网络之间有差异,而且在网络内部也有变化;进一步提出了一种方法,可以找到网络的低精度配置,同时保持高准确性。研究表明,相对于在所有层中使用32位浮点表示的传统实现,数据足迹可以平均减少74%,最高可降至92%,而相对准确性损失不到1%。
Nov, 2015
提出DoReFa-Net,一种可以使用低位宽参数梯度训练卷积神经网络的方法,可以使用位卷积核来加速训练和推理,并且可以在CPU,FPGA,ASIC和GPU上高效实现。实验表明,DoReFa-Net可以获得与32位网络相当的预测精度。
Jun, 2016
本研究旨在通过采用极低精度(2位)权重网络,并在零值上进行操作跳过以提高计算效率和性能,以在低精度网络下获得更高精度。实验结果表明,与全精度网络相比,在并非影响相似准确度的情况下,计算需求降低了约3倍,且在Imagenet物体分类挑战上取得了最高报道准确度。为了充分利用低精度网络优势,研究小组开发了一种深度学习加速器核心dLAC,可实现每平方毫米单精度浮点运算的TFLOP当量,半精度时可达到每平方毫米的2个TFLOP。
Oct, 2016
介绍了一种增量网络量化方法,该方法可以高效地将任何已训练好的卷积神经网络模型转换为低精度版本,它的权重被限制为二的幂次或零,并成功解决了现有方法存在的精度丢失问题。
Feb, 2017
本文提出了一种使用低精度权重和操作的DNN学习方法,利用可学习的正则化系数来加强高精度权重收敛到量化值的能力,并研究了如何通过权重剪枝、量化和熵编码来建立低精度DNN压缩管道,实验结果显示该方法可以在ImageNet分类和图像超分辨率网络的任务中取得与准确性相对可接受的最新压缩比。
Sep, 2018
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
本文提出了一种改进的训练方法来提高具有更高准确性的紧凑型二值化CNN,其中可训练的权重和激活的比例因子被引入以增加值范围,并通过反向传播与其他参数一起进行训练。通过这些改进,与前人工作相比,本文二值化CNN在CIFAR-10上的准确度达到92.3%,在ImageNet上,我们的方法用AlexNet获得46.1%的top-1准确度,用Resnet-18获得54.2%的top-1准确度。
Sep, 2019
本文提出了一种用于网络量化的Efficient Bitwidth Search(EBS)算法和一种二进制分解算法,以实现不同精度的权重和激活的混合精度卷积,并证明了该方法在CIFAR10和ImageNet数据集上的表现优于已有方法。
Mar, 2020