关于卷积神经网络中隐式滤波器级别稀疏性的研究
研究发现,在采用批归一化和 ReLU 激活以及使用自适应梯度下降技术和 L2 正则化或权值衰减训练的卷积神经网络中,存在着隐式过滤器级别稀疏性,这可能与某些在文献中提出的过滤器稀疏化启发式的特定联系有关。进一步观察表明,特定功能的出现和随后的修剪是导致特征稀疏化的机制之一,导致的特征稀疏性与某些显式稀疏化 / 修剪方法相当甚至更好。本文总结了研究发现,并指出了选择性功能处罚的推论,这也可作为过滤器修剪的启发式方法。
May, 2019
本研究探讨了在卷积神经网络的训练过程中使用稀疏性正则化的方法。我们的实验结果表明,使用这种正则化方法可以大幅减少神经网络所需的存储和计算开销,并且不会显著降低准确性。
Dec, 2014
本文介绍一种利用 CNNs 去处理罕见数据的工具套件,包括直接稀疏卷积、注意力机制避免填充,以及适用于标准学习框架的反向传播算法改进,可以实现比传统密集框架更低的内存足迹和计算时间。
Jan, 2018
本文研究了深度神经网络的泛化能力和节点稀疏性之间的关系,通过开发一个基于减小的有效模型大小的框架来证明了稀疏和泛化之间的基本权衡关系,并提出了一种新的方法来分析这个问题。
Jul, 2023
本篇研究探讨了从不同角度解决深度神经网络在机器学习任务中高效且低内存使用的问题,提出了基于实例的特征修剪方法,并使用变异系数作为度量标准进行层选择,实验结果表明该方法有效。
Jul, 2019
本文提出一种同时实现卷积神经网络的规模经济和速度提升的方法,包括一种有效的一般性稀疏 - 稠密矩阵乘法实现以及一种性能模型,可以预测不同层和不同计算机架构的稀疏水平的最佳值,该方法可在包括移动设备和超级计算机在内的各种处理器上实现 3.1-7.3 倍的卷积速度提升。
Aug, 2016
卷积神经网络 (CNNs) 被报道为过参数化。本文提出了一种基于数学思想的逐层数据驱动剪枝方法,旨在通过最小化网络熵来找到稀疏子网络,以解决网络架构搜索的复杂性问题。该方法在多个基准测试中得到验证,并在中稀疏度达到 55%-84% 时准确度损失为 0.1%-0.5%(LeNet 模型在 MNIST 数据集上),在稀疏度达到 73%-89% 时准确度损失为 0.1%-0.5%(VGG-16 和 ResNet18 模型在 CIFAR-10 数据集上)。
Apr, 2024
本文提出深度神经网络在训练过程中能自动诱导出权重的分组稀疏性,利用此现象我们可以在训练完成之后快速减少模型尺寸,同时不会对模型表现带来太大影响。
Dec, 2018
本文提出了一种基于滤波器减少方法的 CNNs 加速方法,它不依赖稀疏卷积库,通过移除对输出准确性影响较小的整个滤波器及其连接的特征图,大大降低了计算成本,在 CIFAR10 数据集上可以使 VGG-16 推理时间减少 34%、ResNet-110 推理时间减少 38%,并且通过重新训练网络可以接近原始准确性。
Aug, 2016