极低比特神经网络:利用 ADMM 提高比特精度
通过 ADMM 算法的系统框架,延伸了基于 ADMM 的神经网络权重量化方法,提出了一种逐步递进的神经网络权重量化方法,可实现更进一步的权重量化,并通过实验证明了优越的性能。
May, 2019
研究对于 DNN 模型的压缩有两类深入了解,如权重修剪和量化;文章研究提出了第一个基于 ADMM 的 DNN 算法硬件协同优化框架 ADMM-NN,该框架可以最大化的提高优化性能以达到更高的 DNN 模型压缩比,并且在不损失准确性的情况下可以达到比以往更好的性能。
Dec, 2018
通过 ADMM(Alternating Direction Methods of Multipliers)方法,本文提出了一种新的基于 DNN 模型的结构压缩框架,实现了在不损失精度的情况下对 Lenet-5,AlexNet 和 ResNet-50 模型分别达到 246x,36x 和 8x 的权重剪枝,并且在 AlexNet(ImageNet)中 61x 的权重剪枝只导致了细微精度下降,还引导出了重要的基于 ResNet 和 MobileNet 模型的权重剪枝结果以及全层次二进制化的 LeNet-5 和 ResNet 等。
Mar, 2019
该篇论文提出了一种基于 ADMM 的渐进式权重剪枝方法,可以在中等剪枝率下进行局部剪枝,从而达到极高的剪枝速率,避免了准确度降低和收敛速度缓慢的问题。该方法在 ImageNet 和 MNIST 数据集上实现了高达 34 倍和 167 倍的剪枝速率。
Oct, 2018
本文利用优化理论中的交替方向乘法器方法,发展了深度神经网络权重剪枝和聚类 / 量化的统一、系统的框架,旨在充分利用冗余,提高 DNN 性能。我们采用多种技术来进一步提高这一框架的性能,并实现了在 LeNet-5、AlexNet 和 VGGNet 等模型上的显著改善。
Nov, 2018
本文提出了一种在有限硬件资源上实现预训练模型的 4 位整数(INT4)量化的优化方法,将线性量化任务形式化为最小均方误差(MMSE)问题,并对网络的每一层进行限制 MSE 问题的优化以及多个量化张量的硬件感知分区,除少量精度降低外,在多种网络架构上实现最先进的结果。
Feb, 2019
对神经元网络进行压缩,能够在不影响功能的情况下提高运行效率。文章提出了一种深度学习模型压缩技术,通过针对网络的每个可压缩部分,实现神经元模型在 MNIST、N-MNIST、CIFAR10 和 CIFAR100 数据集上的模式识别任务,并取得了更好的结果。
Nov, 2019
研究深度神经网络压缩,提出一种自适应损失感知量化方法 (ALQ) 来加速推理并在低资源移动和嵌入式平台上降低存储需求。实验结果表明,该方法在精度和存储方面优于最先进的压缩网络。
Dec, 2019
本文研究了一种通过使权重和激活的位宽自适应来实现神经网络自适应配置的新方法,并探究了直接适应、渐进适应和联合训练等多种方法,最终提出了一种称为 S-CL 的新技术,证明了通过位宽自适应可以在实现高精度的同时实现高效率,从而在真实世界应用中快速适配。
Dec, 2019