MixQuant:混合精度量化与位宽优化搜索
本文提出了通过利用微分方法来搜索离散权重的概率分布并在训练过程中进行优化,以建立所需的量化神经网络,该方法在图像分类和超分辨率任务上表现明显优于现有的最先进方法。
Sep, 2020
本文提出了一种用于网络量化的 Efficient Bitwidth Search(EBS)算法和一种二进制分解算法,以实现不同精度的权重和激活的混合精度卷积,并证明了该方法在 CIFAR10 和 ImageNet 数据集上的表现优于已有方法。
Mar, 2020
提出一种新的基于学习的算法,用于在目标计算约束和模型大小下端到端地推导混合精度模型。该方法能够通过逐渐调整模型中每个层 / 核心的位宽,实现两个连续位宽的分数状态来满足资源约束,使量化的使模型经过量化感知训练,能够最终获得优化的混合精度模型,并且可以与通道剪枝自然结合使用,以更好地分配计算成本。实验结果表明,在 ImageNet 数据集上,我们的最终模型在不同的资源约束下,达到了与之前混合精度量化方法相当或更好的性能。
Jul, 2020
该研究探索了一种新的神经网络压缩方法,通过不同比特宽度的量化不同层并使用可微分神经架构搜索框架进行优化,成功地实现了比现有方法更高的压缩率,模型尺寸缩小 21.1 倍或计算量降低 103.9 倍
Nov, 2018
本文提出了一种基于梯度下降优化的深度神经网络压缩的精细化量化方法,通过在不同结构、层次上采用不同的精度,达到更好的压缩比和准确率的平衡。实验结果表明,与传统量化方法相比,该方法在相同压缩率下表现更优。
Oct, 2018
本文提出一种不同的量化方法,使用不同的参数化方法来训练深度神经网络,从而达到更高效深度神经网络推理的效果。通过多组实验验证,使用该方法训练得到的量化参数可以达到最佳效果。
May, 2019
本文提出了一种用于深度神经网络(DNN)压缩的联合训练方法,以便同时训练量化器和 DNN,以便量化网络权重和激活,并提高量化模型的预测准确性。在 CIFAR-10 和 ImageNet 数据集上进行的全面实验显示,该方法在各种网络结构上都运行良好,超越了以前的量化方法。
Jul, 2018
本文提出了一种针对深度模型量化的优化框架和量化算法,首次理论分析单个图层的参数量化误差与模型精度之间的关系,达到了比以前的优化方法更高的压缩率和相同模型精度下更高的压缩率。
Dec, 2017
该论文提出了一种混合精度搜索方法,该方法通过硬件无关的可微分搜索算法和硬件感知优化算法来寻找特定硬件目标上的优化后的混合精度配置,以减少模型大小、延迟并保持统计准确性,该方法在 MobileNetV1 和 MobileNetV2 上进行了评估,在具有不同硬件特性的多核 RISC-V 微控制器平台上展示了与 8 位模型相比高达 28.6% 的端到端延迟降低,在没有对子字节算术支持的系统上也能实现加速,同时在代表延迟的减少二进制运算次数上,我们的方法也表现出优越性。
Jul, 2023