通过网络削减学习高效卷积网络
本论文提出了三种无需重新训练即可进行卷积神经网络稀疏化的方法,研究表明,这些方法能够使得最先进的模型权重减少高达 73%(压缩因子为 3.7 倍),而最多只会损失 5%的 Top-5 精度,附加的微调只能获得 8%的稀疏度,这表明我们的快速稀疏化方法是有效的。
Nov, 2018
通过实验证明了通过在卷积层之间停用连接的方法将采用通道稀疏连接结构的 2D 卷积技术与许多网络体系结构一起使用,可以在保持准确性的同时实现明显的运行时间和内存储存器的节省。
Feb, 2017
本文介绍了使用通道卷积压缩深度模型的方法,这种方法在 CNN 中替换特征图之间的稠密连接为稀疏连接,从而构建轻量级 CNN。ChannelNets 使用三种通道卷积的实例,并通过对 ImageNet 数据集进行实验来证明了其在参数和计算成本上的显著性降低,且不影响准确性。
Sep, 2018
研究提出一种叫做 proximal NS 的算法,可以训练卷积神经网络达到精炼、准确的结构,无需识别阈值并且压缩效果较好。实验中使用该算法在 CIFAR 10/100 数据集上验证了其有效性。
Jul, 2023
本研究旨在通过对卷积神经网络的通道剪枝方法进行优化,以提高在移动和嵌入式设备上的计算效率,虽然有些情况下通道剪枝算法可能会损害计算性能,但是我们还是发现采用基于性能的剪枝会达到预期的效果。
Feb, 2020
本文介绍了一种简单通用的方法去训练单个神经网络的可执行不同宽度(即层中通道的数量),从而允许在运行时进行即时和自适应的准确性和效率权衡。基于共享网络的可切换批量归一化,可以在不同的宽度配置下进行训练,并可根据实时运行结果和资源限制在多个应用领域中实现类似甚至更好的准确性和效率表现。
Dec, 2018
提出了一种简单而有效的方案 —— 单次整个网络压缩,以在移动设备上部署深度卷积神经网络,并通过对各种压缩卷积神经网络在智能手机上的性能进行测试,证明了所提方案的有效性,可获得显著的模型尺寸、运行时间和能量消耗的降低,同时只付出了小量精度损失。
Nov, 2015
本文提出一种同时实现卷积神经网络的规模经济和速度提升的方法,包括一种有效的一般性稀疏 - 稠密矩阵乘法实现以及一种性能模型,可以预测不同层和不同计算机架构的稀疏水平的最佳值,该方法可在包括移动设备和超级计算机在内的各种处理器上实现 3.1-7.3 倍的卷积速度提升。
Aug, 2016
本文提出了一种基于滤波器减少方法的 CNNs 加速方法,它不依赖稀疏卷积库,通过移除对输出准确性影响较小的整个滤波器及其连接的特征图,大大降低了计算成本,在 CIFAR10 数据集上可以使 VGG-16 推理时间减少 34%、ResNet-110 推理时间减少 38%,并且通过重新训练网络可以接近原始准确性。
Aug, 2016