本文介绍了一种新的轻量级 GCN 设计:概率幅值剪枝 (PMP),该方法通过联合训练网络拓扑和权重,通过对齐已知先验分布的权重分布来实现任何固定剪枝率,以及增强设计的轻量级 GCN 的泛化性能。在处理基于骨骼的识别任务时,本文进行了大量的实验证明,轻量级 GCN 在非常高的剪枝基准下有显着的性能提升。
May, 2023
我们提出了一种轻量级图卷积网络设计,称为 Multi-Rate Magnitude Pruning (MRMP),它通过联合训练网络拓扑和权重来对网络进行训练。该方法是变分的,通过将学习网络的权重分布与先验分布对齐,实现了任何固定的剪枝率的具体操作,并增强了设计的轻量级 GCN 的泛化性能。此外,MRMP 通过共享权重在多个 GCN 之间进行联合训练,以在任何目标剪枝率上外推准确的网络,而无需重新训练它们的权重。对基于骨骼的识别这一具有挑战性的任务进行的大量实验表明,我们的轻量级 GCN 在非常高的剪枝程度下有显著的性能提高。
Dec, 2023
本文研究了采用多轮训练的方式,是否能够提高特定体系结构的准确度与稀疏性之间的平衡,并在共享的 ResNet-20 初始化的基础上使用不同的 SGD 数据顺序训练多个网络副本来实现。我们的实验结果显示,采用多轮训练的思路与一次性的基于幅度裁剪的方法相比并无差异。
Apr, 2021
在嵌入式环境中,卷积神经网络因其过多的权重存储和算术运算而未能得到广泛应用,为解决这一问题,本文提出了一种新的修剪方案,以反映加速器架构,通过此方案,性能得到了大幅提升,并成功应用于 AlexNet,VGG16,ResNet,MobileNet 等多种网络模型。
Apr, 2018
深度神经网络修剪方法的全面理论分析及其在各种网络架构上的实验验证。
Feb, 2020
本文研究了网络剪枝策略的扩展,力图在保留网络的鲁棒性的同时设计更紧凑的神经网络,并基于对现有策略的缺陷进行改进,最终在 CIFAR-10 数据集上取得了不俗的成绩。
Jun, 2019
本文提出了一种新颖的动态裁剪方法,称之为基于数量级注意力的动态裁剪 (MAP) 方法,该方法在前向和反向路径中均运用了权重的重要性来动态探索稀疏模型结构,可以在更高效的情况下实现密集模型的性能,并且在 CIFAR-10/100 和 ImageNet 数据集上的表现比以前的裁剪方法更好。
Jun, 2023
本研究提出了一种名为预见性剪枝的简单剪枝方法,通过将单层优化扩展到多层优化,预见性剪枝在各种网络中表现良好,特别是在高稀疏度情况下,优于基于幅度的剪枝。
本文介绍一种基于辅助门控机制的结构化网络剪枝方法,通过给主干网中的块分配重要性标记,并提出了一种块级剪枝的投票策略来解决移动设备上使用卷积神经网络时遇到的成本问题。通过知识蒸馏的三阶段训练计划,提高了模型性能,实现了更好的压缩率。实验证明该方法在分类任务中可以取得最先进的压缩性能。此外,通过提供预训练模型,我们的方法可以与其他剪枝方法协同集成,从而实现比未剪枝模型更优异的性能,并减少了超过 93%的浮点运算。
May, 2022
本篇文章提出了一种基于图神经网络和强化学习的多阶段图嵌入技术,用于识别 DNN 的拓扑结构和寻找合适的压缩策略,实现模型压缩并获得更高的压缩比和竞争性的性能。
Feb, 2021