网络剪枝空间
本文针对神经网络剪枝技术在高稀疏度领域的应用,提出了新的有效稀疏度概念,重定义了性能评价指标,同时开发了一个成本较低的扩展工具,通过评估各种剪枝算法的绝对和相对性能表现,证明新的评价框架下与基于初始化的剪枝算法相比,随机剪枝仍然是一种可行的方法。
Jul, 2021
使用节点剪枝和子空间形成技术,该论文提出了可以在保持网络性能最大化的同时去除计算单元来提高深度网络的效率,通过重新组织网络和使用正交子空间来选择合适的剪枝比例,并在 VGG 和残差网络中验证了该方法的优越性。
May, 2024
本研究发现,在针对低资源设置中减少深度模型推理成本的网络修剪过程中,训练大模型通常不是获得高效终端模型的必要条件,学到的 “重要” 权重通常对小模型没有用,修剪的架构本身比继承的 “重要” 权重更重要,并且此方法可作为架构搜索范式。本文还比较了 “Lottery Ticket Hypothesis”,发现在最佳学习率下,与随机初始化相比,其 “获胜券” 初始化并未带来提高。
Oct, 2018
本文提出了 LayerPrune 框架,相较于传统基于 filter 的剪枝方法,LayerPrune 基于不同的剪枝指标实现了更高的延迟降低,并使用相同的 filter 重要性判定剪枝最不重要的层,较好地平衡了准确率和删除率。
Jul, 2020
在嵌入式环境中,卷积神经网络因其过多的权重存储和算术运算而未能得到广泛应用,为解决这一问题,本文提出了一种新的修剪方案,以反映加速器架构,通过此方案,性能得到了大幅提升,并成功应用于 AlexNet,VGG16,ResNet,MobileNet 等多种网络模型。
Apr, 2018
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达 93% 的稀疏度与 95% FLOPs 的减少,同时在分类和分割问题上超过了先进水平,并且避免了在 GPU 上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
我们提出了一种不需要训练数据也能够在初始阶段识别高度稀疏的可训练子网络的剪枝算法,该算法基于神经突触流动原理并叫做迭代神经突触流剪枝算法(SynFlow),在多种模型、数据集和稀疏约束条件下,表现出和现有最先进的基于梯度的剪枝算法相当或更好的结果,成功挑战了基于训练数据来定量判断哪些突触重要的传统范式。
Jun, 2020
本文提出了一种新的网络剪枝方法,通过神经结构搜索直接搜索灵活的通道和层大小, 最小化剪枝网络的失误实现通道和层大小的学习,提高了传统的网络剪枝方法, 并有效地区别了不同搜索和知识转移方法的效果。
May, 2019
本文提出了一种基于准确性和稀疏性目标的深层网络动态构建算法,与传统的剪枝方法不同,本方法采用渐进式连续松弛和网络优化,然后采样稀疏子网络,使得训练出来的深层网络更加高效。实验结果证明,采用本算法训练的网络比其他竞争的剪枝方法更加精确且规模更小。
Jul, 2020