大规模神经架构的反向传播压缩:结构化激活剪枝
本文提出了一种自适应基于激活的结构化裁剪方法,以自动高效地生成满足用户要求的小型、准确和硬件高效的模型,它提出了迭代性结构化裁剪和自适应剪枝策略,可在不降低精度的情况下大幅减少参数和 FLOPs
Jan, 2022
基于脉冲神经网络(SNN)的结构稀疏化,提出了一种基于卷积核活动水平的结构删减方法,通过动态调整网络结构使其更适应当前目标任务,提高模型的适应性、降低计算负载和加速推理过程。
Jun, 2024
通过在计算通用矩阵乘法(GEMM)时考虑激活的最终位置,我们设计了一种稀疏训练过程,以诱导可利用的半结构化激活稀疏性,并在图像分类和目标检测任务中对其进行了广泛评估,结果显示在 ImageNet 数据集上,我们的方法在 ResNet18 模型上实现了 1.25 倍的加速,并仅有 1.1% 的最小精度降低;另外,与先进的结构化剪枝方法相结合,得到的模型在延迟和准确性之间取得了很好的平衡,优于仅采用结构化剪枝技术的模型。
Sep, 2023
利用动态结构修剪方法逐渐移除无关神经元并采用组稀疏正则化器高效训练深度增强学习模型,在离散控制环境和连续控制环境中展示了与现有方法竞争力相当的压缩效果和性能
Feb, 2024
本文提出了一种名为结构化稀疏正则化(SSR)的滤波器剪枝方案,它通过两种不同的正则化方法来适应性地裁剪卷积神经网络(CNN)的滤波器,从而提高计算速度和降低内存开销,并通过实验验证了其优异性能。
Jan, 2019
本文提出了一种简单有效的框架来对深度模型进行端到端的剪枝,方法是先引入一个称为 “缩放因子” 的新参数来缩放特定结构的输出,然后对这些因子加入稀疏正则化,并通过修改的随机加速远端梯度(APG)方法解决这个优化问题。将某些因子强制为零,可以安全地移除对应的结构,从而削减 CNN 的不重要部分,该方法相较于其他需要数千次试验或迭代微调的结构选择方法具有更好的性能。
Jul, 2017
本文提出了一种适应性结构发展的 SNN 方法,引入树突棘突触可塑性、神经元修剪和突触再生,通过神经元修剪、突触限制和突触再生等机制,检测和移除了 SNN 的大量冗余,实现了优化压缩并降低网络能耗。在实验中表明,该方法可以在不同任务中学习适当的压缩率并显著降低网络能耗。
Nov, 2022
本文提出了一种通过动态和稀疏的图结构来执行深度神经网络(DNNs)进行压缩存储和加速执行的方法,该方法在训练和推断时均可应用,以优化深度神经网络的轻量化模型。实验证明该方法可以显著提供存储和操作的性能,并在各种基准测试中几乎无损失地维护准确性。
Oct, 2018