DepGraph: 面向任意结构剪枝
结构化修剪技术 (SPA) 是一种适用于不同架构、框架和修剪标准的多功能架构修剪框架,通过使用标准化计算图和 ONNX 表示法来实现对神经网络的修剪,并通过分组级别的重要性估计方法来进行修剪。在对比实验中,SPA 在不同架构、流行框架和不同修剪时间上表现出与现有技术相当的修剪性能。OBSPA 是一种无需微调或校准数据即可实现最先进的修剪结果的算法。
Mar, 2024
通过 DAG-DNN 框架的分解结构,能够将深度神经网络的所有函数分别应用在网络的子结构中,从而实现系统性地结构修剪,进一步得出了基于交错方阵的网络修剪方法。
Jun, 2023
本文研究了定结构剪枝在多任务深度神经网络模型中的有效性。通过使用基于现有单任务筛选剪枝标准和基于多任务学习筛选剪枝标准,采用迭代剪枝策略进行剪枝,本文表明在参数数目相似的情况下,与快速单任务 DNN 相比,DNN 多任务可以通过精心的超参数调整实现相似的性能,迭代权重剪枝可能不是实现良好性能剪裁模型的最好方式。
Apr, 2023
使用结构化剪枝方法,在不降低推理准确度的情况下,通过算法的网络增强、剪枝、子网络合并和移除,实现了高达 93% 的稀疏度与 95% FLOPs 的减少,同时在分类和分割问题上超过了先进水平,并且避免了在 GPU 上进行计算昂贵的稀疏矩阵运算。
Aug, 2023
本文提出了一种基于渐进式图剪枝 (CGP) 的图神经网络 (GNN) 压缩框架,综合剪枝了图结构、节点特征和模型参数,同时引入重生过程以重新建立重要的连接,实验结果表明 CGP 策略在提高训练和推断效率的同时保证准确性超过了现有方法。
Jul, 2022
本文介绍了一种有效的方法来解决组卷积剪枝的挑战,即将其制定为寻找最优通道置换以施加结构约束并通过启发式方法高效地解决。同时,本方法还应用启发式方法来探索基于估算的剪枝成本的分组配置,以最大化测试准确性。与之前的工作相比,结果表明我们的方法在更短的剪枝时间内为各种任务生成具有竞争力的组卷积模型,并可快速探索组配置以符合推断预算约束。
Nov, 2018
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
在本研究中,我们介绍了 EGP,这是一种创新的基于熵引导的剪枝算法,旨在在保持性能的同时减小深度神经网络的规模。EGP 的关键重点是优先剪枝熵值较低的层的连接,从而最终完全移除它们。通过对 ResNet-18 和 Swin-T 等流行模型进行广泛的实验,我们的发现表明 EGP 能够有效压缩深度神经网络,并且保持具有竞争力的性能水平。我们的结果不仅揭示了非结构化剪枝的优势背后的机制,还为进一步研究熵值、剪枝技术和深度学习性能之间的复杂关系铺平了道路。EGP 算法及其洞见对于推动网络压缩和优化领域具有巨大潜力。EGP 的源代码已开源发布。
Aug, 2023
本文提出了一种新的结构剪枝方法,通过强化学习代理来联合学习卷积神经网络模型的权重和结构剪枝,其核心元素是一个强化学习代理,通过动态奖励函数来确定 CNN 模型各层的剪枝比例,实验证明该方法在 CIFAR-10 和 ImageNet 数据集上对 ResNets 和 MobileNets 模型具有有效性。
Mar, 2024