超高效 DNN 实现的剪枝量化优化忆阻交叉开关网络
这篇论文提出了一种统一而系统的基于忆阻器的框架,考虑了结构化权重剪枝和权重量化,并将交替方向乘子法(ADMM)纳入深度神经网络(DNN)训练中,以实现高准确度、低功耗和小面积占用率。在 VGG-16(ResNet-18)网络上,与原始 DNN 模型相比,该框架实现了 29.81X(20.88X)的权重压缩比,98.38%(96.96%)和 98.29%(97.47%)的功耗和面积降低,并仅有 0.5%(0.76%)的精度损失。
Aug, 2019
研究对于 DNN 模型的压缩有两类深入了解,如权重修剪和量化;文章研究提出了第一个基于 ADMM 的 DNN 算法硬件协同优化框架 ADMM-NN,该框架可以最大化的提高优化性能以达到更高的 DNN 模型压缩比,并且在不损失准确性的情况下可以达到比以往更好的性能。
Dec, 2018
通过识别三个关键属性,我们提出了一种适用于 ADC 特定效率低下问题的剪枝方法,实现 ADC 能量的降低并减少精度损失,从而提高深度学习效率。
Mar, 2024
该论文提出了一种基于 L0-norm 约束优化问题的交叉栏架构感知修剪框架,其中采用了 L0-norm 约束梯度下降(LGD)与弛豫概率投影(RPP)来寻找两个阶段的稀疏性,并提出了输入特征映射(FMs)重新排序方法来提高模型准确性。实验结果表明,该方法可在不降低准确性的情况下将交叉栏架开销减少 44%-72%,为在各种交叉栏架设备上映射 CNN 提供了一种高效的新型协同设计解决方案。
Jul, 2018
提出一种融合 ADMM 算法和滤波器和列剪枝技术的 DNN 框架,包括网络净化和未使用通路去除算法,可在 LeNet-5、ResNet-18 CIFAR-10 和 AlexNet 上实现 232 倍、60 倍和 5 倍的压缩,以减少 DNN 框架资源的高计算和大内存存储的挑战。
Apr, 2019
本文提出了一种 ADMM-NN-S 的新方法来进行深度神经网络的权值剪枝和量化,在多个数据集上通过非结构化和结构化剪枝实验得出,在存储和计算效率上,非结构化剪枝不如结构化剪枝。
Jul, 2019
近年来,硬件加速神经网络在边缘计算应用中引起了重视。在各种硬件选项中,交叉阵列为神经网络权重的高效存储和操作提供了有希望的途径。然而,从经过训练的浮点模型转向硬件约束的模拟体系结构仍然是一个挑战。在这项工作中,我们将一种专为这种体系结构设计的量化技术与一种新颖的自校正机制相结合。通过利用双交叉栏连接来表示单个权重的正负部分,我们开发了一种算法来近似一组乘法权重。这些权重以及它们的差异旨在以最小的性能损失来表示原始网络的权重。我们使用 IBM 的 aihwkit 实现了这些模型,并随时间评估了它们的效力。我们的结果表明,当与芯片上的脉冲发生器配对时,我们的自校正神经网络在性能上与那些经过模拟感知算法训练的网络相当。
Sep, 2023
本研究通过利用 memristive 和 memcapacitive 交叉阵列在低功耗机器学习加速器中的应用,提供了一个综合的深度神经网络 (DNN) 的共同设计框架;该模型采用混合 Python 和 PyTorch 方法实现,考虑了各种非理想因素,在 8 层 VGG 网络上,对 CIFAR-10 数据集分别使用 memristive 和 memcapacitive 交叉阵列,实现了卓越的训练准确率 (90.02% 和 91.03%);此外,本文还引入了一种使用运算跨导放大器 (OTA) 和电容器模拟 meminductor 设备的新方法,展示了可调节的行为;在 60 MHz 下,180 nm CMOS 技术的晶体管级仿真表明所提出的 meminductor 模拟器具有 0.337 mW 的功耗,进一步在神经形态电路和 CNN 加速器中进行了验证,训练和测试准确率分别达到了 91.04% 和 88.82%,值得注意的是,仅使用 MOS 晶体管确保了单片 IC 制造的可行性,这项研究为探索高效和高性能的机器学习应用的先进硬件解决方案作出了重大贡献。
Mar, 2024
本文利用优化理论中的交替方向乘法器方法,发展了深度神经网络权重剪枝和聚类 / 量化的统一、系统的框架,旨在充分利用冗余,提高 DNN 性能。我们采用多种技术来进一步提高这一框架的性能,并实现了在 LeNet-5、AlexNet 和 VGGNet 等模型上的显著改善。
Nov, 2018
通过 ADMM(Alternating Direction Methods of Multipliers)方法,本文提出了一种新的基于 DNN 模型的结构压缩框架,实现了在不损失精度的情况下对 Lenet-5,AlexNet 和 ResNet-50 模型分别达到 246x,36x 和 8x 的权重剪枝,并且在 AlexNet(ImageNet)中 61x 的权重剪枝只导致了细微精度下降,还引导出了重要的基于 ResNet 和 MobileNet 模型的权重剪枝结果以及全层次二进制化的 LeNet-5 和 ResNet 等。
Mar, 2019