神经网络的 8 位训练可扩展方法
本研究介绍了一种训练低精度神经网络的方法,该方法使用二进制操作代替计算,达到降低内存大小、减少电力消耗的目的。经过 MNIST、CIFAR-10、SVHN、ImageNet 和 Penn Treebank 数据集的测试,结果表明 1 位权重和 2 位激活的量化版本的 AlexNet 能够达到 51% 的准确率,训练过程中也能使用仅有的二进制操作实现损失函数的计算,并在损失部分的代码上进行了优化,使得 QNN 的运行速度能比未优化的 GPU 加速速度快七倍,并且没有影响分类准确性。
Sep, 2016
本文提出了一种名为 WAGEUBN 的统一完整量化框架,可将神经网络的数据路径(包括所有数据类型 W,A,G,E,U 和 BN)中所有数据转换为低位整数以实现全面量化和在线训练,并在 ImageNet 数据集上获得了可比较的精度,展示了在大规模 DNNs 中 8 位 INT 级别的完整量化的功能性。
Sep, 2019
本文提出了一种新的量化方法,可以确保量化值分布的平衡性,通过对参数进行分位数递归划分并应用均匀量化,可以提高 QNN 的预测准确性,同时对训练速度几乎没有影响,并可适用于卷积神经网络和循环神经网络。
Jun, 2017
本文提出一种名为 EasyQuant (EQ) 的简单有效的后训练量化方法,通过尺度优化来获得类似于基于训练方法的精度。具体地,我们针对卷积输出的所有层交替优化权重和激活的规模,以进一步获取高量化精度。然后,我们将位宽降低到 INT7,同时采用 INT16 中间存储和整数 Winograd 卷积实现加速推断。各种计算机视觉任务的实验结果表明,EQ 优于 TensorRT 方法,并且在经过 7 位宽后训练可达到接近 INT8 的精度。
Jun, 2020
本文提出了一种基于梯度下降优化的深度神经网络压缩的精细化量化方法,通过在不同结构、层次上采用不同的精度,达到更好的压缩比和准确率的平衡。实验结果表明,与传统量化方法相比,该方法在相同压缩率下表现更优。
Oct, 2018
本文提出了一种用于深度神经网络(DNN)压缩的联合训练方法,以便同时训练量化器和 DNN,以便量化网络权重和激活,并提高量化模型的预测准确性。在 CIFAR-10 和 ImageNet 数据集上进行的全面实验显示,该方法在各种网络结构上都运行良好,超越了以前的量化方法。
Jul, 2018
介绍了现代神经网络中减少计算成本和提高性能的两种量化算法: Post-Training Quantization 和 Quantization-Aware Training。
Jun, 2021
本论文介绍了一种将 QNN 推理操作转换为整数推理操作的流程,以及一些基于比特串处理技术的方法,以常见的按位操作有效地部署 QNN。作者展示了 QNN 在移动 CPU 上的潜力,并提供了一个比特串矩阵乘法库。
Sep, 2017
本文通过量化神经网络的权重和激活值为多个 {-1,+1} 的二进制编码来解决在性能有限的移动设备和高并发服务器上部署神经网络时的问题,并在长短时记忆和门控循环单元等领域进行了测试,结果显示仅失去一定的准确性,我们可以通过两位量化实现约 16 倍的内存节省和约 6 倍的实际推理加速,在三位量化下,我们几乎不会失去准确性,甚至可以超越原始模型,同时节省约 10.5 倍的内存和约 3 倍的实际推理加速。
Feb, 2018
该论文提出了一种基于量化的后训练量化流程,无需重新训练即可加速深度神经网络的推理,并得到了在 ImageNet 上 6 位的 Top-1 准确率增加 2.2% 的结果。
Oct, 2022