基于贝叶斯推断修剪神经网络
本研究通过采用贝叶斯视角,使用稀疏感知先验来修剪网络,使用 Hierarchical priors 修剪节点并使用后验不确定性确定编码权重的最优固定点精度,使得压缩率达到了最佳水平,并且仍然具有与优化速度或能量效率的方法相竞争的性能。
May, 2017
深度学习的复杂模型限制了其巨大潜力的发挥,需要高效的稀疏化技术。贝叶斯稀疏化是一种关键方法,能够设计出在各种深度学习应用中既计算效率高又性能竞争力强的模型。本研究指出贝叶斯模型简化是一种更高效的模型参数修剪方法,相对于现有的基于随机变分推断的方案,具有更好的计算效率和修剪率。研究中通过对各种深度学习架构的实例进行了验证,包括经典的网络如 LeNet 以及现代框架如视觉 Transformer 和 MLP-Mixer。
Sep, 2023
本文从因果推理的角度应对神经网络尺寸扩大导致的资源消耗过高的问题,提出一种评分机制来进行神经网络的结构化剪枝和压缩,实现了在各种数据集和模型尺寸下的竞争性表现。
Dec, 2021
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
提出了一种新的神经网络卷积核剪枝方法,通过 Taylor 扩展来近似剪枝参数变化引起的代价函数的改变,并结合反向传播的微调来保持剪枝网络的良好泛化性能,该方法在细粒度分类任务中表现出优异的性能。
Nov, 2016
本文探讨神经网络剪枝问题,在对历史文献进行回顾及常见假设进行分析后,提出了一种新型的神经元全剪枝方法,得出存在许多基于剪枝算法的固有缺陷及为减少计算复杂性而做出的权衡。另外,还发现剪去 40-70% 的神经元实际上对学习表示形式并没有太大的影响。
Jan, 2017
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
对神经网络修剪技术的元分析表明当前存在缺乏标准基准和度量标准的不足,该研究提出了 ShrinkBench 框架,用于规范评估修剪方法,以消除修剪技术比较中的常见问题。
Mar, 2020
我们提出了一种在神经网络早期训练阶段识别和消除不相关层的算法。与权重或滤波器层剪枝相比,层剪枝能够减少神经网络中更难并行计算的顺序计算。我们采用了一种结构,在非线性网络部分周围使用剩余连接,使非线性部分进行剪枝后仍然能够在网络中传递信息。我们的方法基于变分推断原理,在神经网络权重上使用高斯规模混合先验,从而在训练和推理过程中实现大幅成本节省。该算法在 MNIST、CIFAR-10 和 ImageNet 数据集以及常见的 LeNet、VGG16 和 ResNet 架构上进行了评估,模拟实验结果表明,由于并行训练和剪枝,我们的方法在层剪枝方面以较低的计算成本实现了最先进的性能。
Jun, 2024
本研究提出了一种基于预算限制的深度卷积神经网络修剪框架,并利用学习掩码层、创新的预算目标函数以及知识蒸馏等技术进行修剪,实验结果表明,使用我们的方法修剪后的 CNNs 比现有方法更准确、计算更少,同时即使极度剪枝也不影响分类准确度,具有很大的实用价值。
Nov, 2018