- 使用 ADMM 的结构化权重剪枝和量化的超高效基于忆阻器的 DNN 框架
这篇论文提出了一种统一而系统的基于忆阻器的框架,考虑了结构化权重剪枝和权重量化,并将交替方向乘子法(ADMM)纳入深度神经网络(DNN)训练中,以实现高准确度、低功耗和小面积占用率。在 VGG-16(ResNet-18)网络上,与原始 DN - 超高效 DNN 实现的剪枝量化优化忆阻交叉开关网络
本文提出了一种基于 memristor 的 DNN 框架,该框架将结构化权重修剪和量化相结合,利用交替方向乘子法(ADMM)算法进行更好的修剪和量化性能,并设计了一种软硬件优化框架,实现了高压缩比和几乎无精度损失的量化。
- 非结构化 DNN 模型权重剪枝 -- 在任何平台上都是有益的吗?
本文提出了一种 ADMM-NN-S 的新方法来进行深度神经网络的权值剪枝和量化,在多个数据集上通过非结构化和结构化剪枝实验得出,在存储和计算效率上,非结构化剪枝不如结构化剪枝。
- ICCV对抗鲁棒性与模型压缩,还是两者兼顾?
本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。
- 渐进式 DNN 压缩:使用 ADMM 实现超高剪枝和量化率的关键
通过 ADMM(Alternating Direction Methods of Multipliers)方法,本文提出了一种新的基于 DNN 模型的结构压缩框架,实现了在不损失精度的情况下对 Lenet-5,AlexNet 和 ResNe - ADMM-NN: 使用交替方向乘积算法的 DNN 的算法硬件协同设计框架
研究对于 DNN 模型的压缩有两类深入了解,如权重修剪和量化;文章研究提出了第一个基于 ADMM 的 DNN 算法硬件协同优化框架 ADMM-NN,该框架可以最大化的提高优化性能以达到更高的 DNN 模型压缩比,并且在不损失准确性的情况下可 - 使用 ADMM 实现 DNN 权重剪枝和权重聚类 / 量化的统一框架
本文利用优化理论中的交替方向乘法器方法,发展了深度神经网络权重剪枝和聚类 / 量化的统一、系统的框架,旨在充分利用冗余,提高 DNN 性能。我们采用多种技术来进一步提高这一框架的性能,并实现了在 LeNet-5、AlexNet 和 VGGN - 混合剪枝:用于边缘设备快速推理的更薄稀疏网络
本文介绍了一种混合剪枝方法,将粗粒度通道和细粒度的权重剪枝相结合,以在资源受限设备上部署现代网络时减少模型大小、计算和功率需求,而无损或几乎无损精度的同时,提出了快速灵敏度测试的通道剪枝方法,可以快速确定网络层内部和跨层级的灵敏度,实验表明 - 使用 ADMM 进行深度神经网络的渐进剪枝
该篇论文提出了一种基于 ADMM 的渐进式权重剪枝方法,可以在中等剪枝率下进行局部剪枝,从而达到极高的剪枝速率,避免了准确度降低和收敛速度缓慢的问题。该方法在 ImageNet 和 MNIST 数据集上实现了高达 34 倍和 167 倍的剪 - 使用交替方向乘子法的系统性 DNN 权重剪枝框架
采用交替方向乘子法(ADMM)的系统性权值剪枝框架解决了深度神经网络中常见的非凸优化问题和稀疏性约束问题,实现了较快的收敛速度和较优的剪枝效果。
- 高效神经音频合成
本文针对顺序模型中高效采样的问题,提出了一种基于 WaveRNN 和权重修剪和子缩放 WaveRNN 的通用技术,可以在保持高输出质量的同时提高采样速度。
- 使用交替方向乘子法进行深度神经网络的系统权重剪枝
本文利用交替方向乘子法 (ADMM) 提出了一种深度神经网络 (DNNs) 系统权值剪枝框架,通过约束非凸优化问题,并借助 ADMM 框架对权重剪枝进行有序化处理,以在保持相同测试精度以内的情况下实现更高的压缩率和更快的收敛速率。
- Weightless:深度神经网络压缩的有损权重编码
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
- CirCNN:使用块循环权值矩阵加速和压缩深度神经网络
该论文提出 CirCNN,一种使用块循环矩阵表示权重和处理神经网络的基于 FFT 快速乘法的方法,能够从 O(n2)减少计算复杂度并降低存储复杂度,同时保持准确性,并在 FPGA、ASIC 和嵌入式处理器上实现出较高的能效和性能表现。
- 通过剪枝压缩神经机器翻译模型
本文探讨了三种基于大小的剪枝模式对 NMT 模型进行压缩,通过实验证明了剪枝技术是一种有效的压缩技术,并且可以通过再训练来恢复或甚至超越原始性能。