本文提出了一种用于网络量化的 Efficient Bitwidth Search(EBS)算法和一种二进制分解算法,以实现不同精度的权重和激活的混合精度卷积,并证明了该方法在 CIFAR10 和 ImageNet 数据集上的表现优于已有方法。
Mar, 2020
本文提出一种不同的量化方法,使用不同的参数化方法来训练深度神经网络,从而达到更高效深度神经网络推理的效果。通过多组实验验证,使用该方法训练得到的量化参数可以达到最佳效果。
May, 2019
提出了一种名为 QBitOpt 的算法,通过量化感知训练(QAT)期间更新比特宽度,将位宽分配问题转化为约束优化问题,利用快速计算的灵敏度和高效求解器,生成满足严格资源约束的高性能任务的混合精度网络。在常见的位宽约束下,在 ImageNet 上评价 QBitOpt 并证实了在固定和混合精度方法中的优越性。
Jul, 2023
提出一种新的基于学习的算法,用于在目标计算约束和模型大小下端到端地推导混合精度模型。该方法能够通过逐渐调整模型中每个层 / 核心的位宽,实现两个连续位宽的分数状态来满足资源约束,使量化的使模型经过量化感知训练,能够最终获得优化的混合精度模型,并且可以与通道剪枝自然结合使用,以更好地分配计算成本。实验结果表明,在 ImageNet 数据集上,我们的最终模型在不同的资源约束下,达到了与之前混合精度量化方法相当或更好的性能。
Jul, 2020
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
本研究提出了三种简单有效的方法来优化低精度权重和低比特位激活函数的深度卷积神经网络:第一,采用两阶段优化策略以逐步找到好的局部最小值;第二,逐步降低比特数;第三,同时训练全精度模型和低精度模型以提供指引。该方法在不降低网络性能的情况下成功地减小了深度学习训练的计算量和存储需求。
Nov, 2017
通过一种一次性训练 - 搜索范式,本文研究了混合精度模型压缩的问题,并提出了一种动态冻结和信息失真缓解技术来优化位宽配置和性能下降。
Jan, 2024
本文提出了一种基于梯度下降优化的深度神经网络压缩的精细化量化方法,通过在不同结构、层次上采用不同的精度,达到更好的压缩比和准确率的平衡。实验结果表明,与传统量化方法相比,该方法在相同压缩率下表现更优。
Oct, 2018
通过提出一种惩罚体系惩罚大位长表示的正则化方法,我们可以在维持准确性的同时,在任意合适的层次上最小化推理位长。
Feb, 2020
本文讨论了低比特神经网络在同质二值化和异质二值化两种情况下的表现,提出使用参数粒度量化的异质二值化方法,其在减小模型位宽并保证性能稳定方面具有优势。
May, 2018