NEPENTHE:基于熵的剪枝作为神经网络深度减少器
在本研究中,我们介绍了 EGP,这是一种创新的基于熵引导的剪枝算法,旨在在保持性能的同时减小深度神经网络的规模。EGP 的关键重点是优先剪枝熵值较低的层的连接,从而最终完全移除它们。通过对 ResNet-18 和 Swin-T 等流行模型进行广泛的实验,我们的发现表明 EGP 能够有效压缩深度神经网络,并且保持具有竞争力的性能水平。我们的结果不仅揭示了非结构化剪枝的优势背后的机制,还为进一步研究熵值、剪枝技术和深度学习性能之间的复杂关系铺平了道路。EGP 算法及其洞见对于推动网络压缩和优化领域具有巨大潜力。EGP 的源代码已开源发布。
Aug, 2023
我们介绍了一种新颖而简单的神经网络剪枝框架,通过引入 Gumbel-Softmax 技术,在端到端的过程中使用随机梯度下降同时优化网络的权重和拓扑结构,实现了网络的卓越压缩能力,保持了在 MNIST 数据集上的高准确性,仅使用了原始网络参数的 0.15%。此外,我们的框架提升了神经网络的可解释性,不仅能够轻松从剪枝网络中提取特征重要性,而且能够可视化特征对称性和信息传递路径,学习策略通过深度学习得到,但却令人惊讶地直观且可理解,专注于选择重要的代表性特征并利用数据模式实现极度稀疏的剪枝。我们相信我们的方法为深度学习剪枝和可解释的机器学习系统的创建开辟了有前途的新途径。
Nov, 2023
卷积神经网络 (CNNs) 被报道为过参数化。本文提出了一种基于数学思想的逐层数据驱动剪枝方法,旨在通过最小化网络熵来找到稀疏子网络,以解决网络架构搜索的复杂性问题。该方法在多个基准测试中得到验证,并在中稀疏度达到 55%-84% 时准确度损失为 0.1%-0.5%(LeNet 模型在 MNIST 数据集上),在稀疏度达到 73%-89% 时准确度损失为 0.1%-0.5%(VGG-16 和 ResNet18 模型在 CIFAR-10 数据集上)。
Apr, 2024
论文介绍了一种名为 NeST 的 DNN 综合工具,它采用增长和修剪的方式来自动学习权重和紧凑的 DNN 网络架构,以生成准确且很小的 DNN 网络。
Nov, 2017
神经网络稀疏化通过减少模型大小、计算复杂度和内存占用的同时保持竞争性能,成为在资源受限设备上部署的有效技术。本研究开发了适应神经网络稀疏化的全程训练流程,利用非标准模型参数初始化、预修剪训练方法和后修剪训练优化等技术,实现了显著提升于当前最先进的神经网络稀疏化方法的效果。
Dec, 2023
提出了一种高效策略,利用大型模型传递的先前知识来减少超参数化深度神经网络的深度,从而减轻其计算负担,并在传统的图像分类设置上评估了方法的有效性。
Apr, 2024
通过引入基于熵的损失项,我们提出了一种新的方法来加强神经网络学习丰富的潜在数据表示,在更少的维度上收敛于更好的测试指标,并在图像压缩和图像分类的实验中展示了其有效性。
Aug, 2023
本研究提出了一种基于背包问题和内部知识蒸馏的神经网络剪枝方法,该方法能够在优化被剪枝网络的最终准确性的同时,从过度参数化的母网络的内部层中提取知识,并使用块分组方法来处理复杂的网络结构。该方法在 ImageNet、CIFAR-10 和 CIFAR-100 数据集上都取得了 state-of-the-art 的准确率表现,并且能够产生与 EfficientNet-B0、MobileNetV3 相同 FLOPs 但更高准确率的网络结构。
Feb, 2020
本文提出了一种基于层次的剪枝方法对深度神经网络进行压缩,通过独立剪枝每个层次的参数可以保证压缩后的网络只需要进行轻量级的重新训练即可恢复预测能力,并在基准数据集上进行了广泛实验以证明其有效性。
May, 2017