低秩扩展加速卷积神经网络
本文介绍了一种可以加速大型卷积神经网络测试时间评估的技术,通过利用卷积滤波器中的线性结构进行逼近计算,可以在保持模型准确率的同时,将CPU和GPU上的卷积层速度提高了2倍。
Apr, 2014
本文旨在加速深度卷积神经网络的测试时间计算,通过最小化非线性响应的重建误差,附加一种低秩约束,以帮助降低过滤器的复杂度,该算法可以减小多层输入的叠加误差并提高模型精度,可将ImageNet的训练速度提升4倍,精度提高4.7%。
Nov, 2014
该研究提出一种使用张量分解和有区别的微调方法来加速卷积神经网络中的卷积层,并且在两个 CNN 上进行验证并表明它具有与以前方法相竞争的性能,能够获得较高的 CPU 加速和较小的精度下降,这对于图像分类具有很大帮助。
Dec, 2014
本文旨在加速卷积神经网络(CNNs)的测试时间计算,特别是对计算机视觉领域产生重大影响的非常深的CNNs。通过开发一种不需要随机梯度下降(SGD)的有效解决方案,解决产生的非线性优化问题,我们提出了一种新的非线性方法,在对多个层进行逼近时实现了一种不对称重建,以减少快速积累误差,并成功地在Object detection中实现了优雅的精度降级。
May, 2015
本文提出了一种通过使用卷积滤波器的低秩表示来创建计算有效卷积神经网络的新方法,该方法通过学习一组小的基础过滤器从头开始进行训练,使网络有效地初始化连接权重。通过使用该方法,我们在CIFAR、ILSVRC和MIT Places数据集上训练了几种现有的CNN体系结构,并证实其优异的性能。
Nov, 2015
使用全卷积网络进行运算符逼近可以显著提高逼近精度,降低运行时间和内存开销。在输入输出对上的训练可以将原始运算符逼近,并且可以对多种不同的高级图像处理运算符进行逼近,包括多种变分模型、多尺度调节和明暗细节操作等。
Sep, 2017
本文对深度神经网络模型压缩和加速的最新技术进行了回顾,介绍了参数修剪、量化、转移/紧凑卷积滤镜和知识蒸馏等四类技术及其表现、应用、优点和缺点,同时探讨了评估矩阵、评估模型表现所使用的主要数据集和最近的基准努力,并讨论了面临的挑战和未来方向。
Oct, 2017
通过动态参数排除,我们提出了一种用于卷积神经网络压缩的高效训练方法,使用奇异值分解(SVD)对低秩卷积滤波器和密集权重矩阵进行建模,并通过端到端的反向传播训练SVD因子。我们的方法在各种现代卷积神经网络和计算机视觉数据集上进行评估,并展示了它在分类性能上的适用性。实验证明,该方法能够在保持或提高分类性能的同时实现显著的存储节省。
Jan, 2024