本文介绍了一种以结构削减神经网络参数为主要内容的新方法,可通过估算神经元对最终损失的贡献并逐步去除小分值的神经元来减少计算、能量和内存传输成本。对于在 ImageNet 上训练的现代网络,我们测量了我们的方法计算的贡献与真实重要性的可靠估计之间的高度(>93%)相关性。使用所提出的方法进行修剪可实现在准确性,FLOPs 和参数减少方面的超越最新技术的改进。在 ResNet-101 上,我们通过删除 30%的参数实现了 40%的 FLOPs 减少,在 ImageNet 的前 1 个准确度方面损失了 0.02%。
Jun, 2019
该篇研究通过梯度流的方式,研究了深度神经网络早期剪枝的影响,通过多组实验验证了几种不同的影响度量标准,从而在神经网络剪枝的早期阶段提出了一种更加有效的剪枝方法。
Sep, 2020
本研究提出了一种基于重要性采样的计算优化方案,该方案能够减少深度神经网络训练过程中冗余计算,提升模型的训练效果并有效降低损失。实验结果显示,该方案能够在相同的时间预算下,将训练损失降低一个数量级,并提高测试误差 5%至 17%。
Mar, 2018
本文提出一种有效的计算深度学习模型中 loss value 的方法,它使用小型模型在并行训练时提高了深度学习优化中重要抽样的应用。结果表明,此方法在测试深度卷积和递归神经网络的图像分类和语言建模任务时取得了良好的普适性。
May, 2017
通过提出的自适应方法和重要性采样方法,在机器学习框架中有效地整合了重要性函数,并仅通过输出层的损失梯度提出了一个简化的重要性函数,以实现在分类和回归任务中更好的收敛性和最小的计算开销。
Nov, 2023
本研究使用神经网络修剪技术在息肉分割领域应用,通过计算卷积滤波器的重要性得分并移除得分最低的滤波器,有效减少参数数量和 FLOPs,而保持相似的精度。
Jun, 2023
本文提出了一种衡量深度神经网络特征重要性估计的近似准确性的经验方法,研究发现,在许多流行的可解释性方法中,只有某些集成方法,如 VarGrad 和 SmoothGrad-Squared,才能胜任随机指定特征重要性的任务。
Jun, 2018
本文提出一种基于梯度流的模型修剪方法,综合考虑 BN 和 ReLU 层后的卷积操作对整个特征映射的影响,采用 BN 层中的一阶泰勒多项式标识神经元的重要程度,该方法在图像分类和去噪任务上取得了良好的性能表现。
Oct, 2021
本研究提出了一种快速且灵活的方法,用于近似估算模型中某一输入变量对于做出特定预测的重要性,并证明了该方法的并发性。通过模拟和气候预测实例,证明了该方法的准确性和实用性。
Jul, 2022
本文研究了几种不同的特征重要性估计方法用于解释卷积深度神经网络对计算机断层扫描(Computed Tomography,CT)图像分类的性能,结论是不同的估计方法对不同准则的性能评估表现不同,同时,专家注释的分割图像与模型到达的预测结果之间存在差异,意识到了解释性差异可以帮助深度学习在医学领域的应用。
Sep, 2022