卷积神经网络中稀疏性的力量
本文提出了一种名为 “网络瘦身” 的新颖学习方案,可以通过引入通道级稀疏性,简化深度卷积神经网络,降低了其计算成本,减小了运行时内存占用,同时不影响准确度。我们进行了多组实验,证明了该方案在各种图像分类数据集上具有较好的效果。
Aug, 2017
本研究探讨了在卷积神经网络的训练过程中使用稀疏性正则化的方法。我们的实验结果表明,使用这种正则化方法可以大幅减少神经网络所需的存储和计算开销,并且不会显著降低准确性。
Dec, 2014
本文提出了使用稀疏神经连接学习高性能的深度卷积神经网络(称为稀疏 ConvNets)进行人脸识别。通过迭代学习,每次稀疏化一层神经元,并使用先前迭代中学习的初始权重重新训练整个模型,作者发现将稀疏 ConvNet 直接从头开始训练对于人脸识别效果不佳。同时,作者提出了一种新的基于神经相关性的权重选择准则,并验证其有效性,用以在每次迭代中从先前学习的模型中选择有意义的连接。在适度稀疏的结构下(在稠密模型中的权重占比为 26%-76%),与 DeepID2+ 的性能相比,所提出的稀疏 ConvNet 从相同的训练数据中显著提高了人脸识别性能,与只有原始参数的基线模型性能相当。
Dec, 2015
本文介绍了一种基于稀疏连接实现深度神经网络的方法,并提出了一种有效的硬件架构,该方法可以减少高度复杂的神经网络的内存需求,并且可以降低能耗高昂的问题。该方法的实现可以在三个流行数据集上提高准确性,同时减少高达 90% 的连接和存储需求以及 84% 的能耗消耗。
Nov, 2016
本文提出一种同时实现卷积神经网络的规模经济和速度提升的方法,包括一种有效的一般性稀疏 - 稠密矩阵乘法实现以及一种性能模型,可以预测不同层和不同计算机架构的稀疏水平的最佳值,该方法可在包括移动设备和超级计算机在内的各种处理器上实现 3.1-7.3 倍的卷积速度提升。
Aug, 2016
本文介绍一种利用 CNNs 去处理罕见数据的工具套件,包括直接稀疏卷积、注意力机制避免填充,以及适用于标准学习框架的反向传播算法改进,可以实现比传统密集框架更低的内存足迹和计算时间。
Jan, 2018
本论文提出了三种无需重新训练即可进行卷积神经网络稀疏化的方法,研究表明,这些方法能够使得最先进的模型权重减少高达 73%(压缩因子为 3.7 倍),而最多只会损失 5%的 Top-5 精度,附加的微调只能获得 8%的稀疏度,这表明我们的快速稀疏化方法是有效的。
Nov, 2018
本文介绍了使用通道卷积压缩深度模型的方法,这种方法在 CNN 中替换特征图之间的稠密连接为稀疏连接,从而构建轻量级 CNN。ChannelNets 使用三种通道卷积的实例,并通过对 ImageNet 数据集进行实验来证明了其在参数和计算成本上的显著性降低,且不影响准确性。
Sep, 2018
通过对特征图和卷积核级别进行修剪,可以减少深度卷积神经网络的计算复杂性,而且在 CIFAR-10 数据集上的实验证明,在保持基线网络误分类率不到 1% 的情况下,可以在卷积层中引入超过 85% 的稀疏性。
Oct, 2016