深度网络压缩感知训练
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015
通过研究过度参数化的深度网络的学习动力学,我们揭示了各种体系结构的权重矩阵展现出低维结构,我们利用这些洞见通过减小中间层的宽度来压缩深度线性网络,实验证明这种压缩技术能够加速训练过程超过两倍,而不牺牲模型质量。
Nov, 2023
本研究介绍了一种通过对抗网络压缩方法实现从深层精确的模型向更小的模型中转移知识的方法,该方法不需要使用标签进行训练,并在不同的师生模型上泛化;在五个固定的标准数据集上进行广泛的评估表明,该学生模型准确率略有下降,而且性能比其他知识传输方法更好,并且超越了同一网络在使用标签训练时的性能,并且对比其他压缩策略的表现也达到了现有的最佳水平。
Mar, 2018
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
本文对深度神经网络模型压缩和加速的最新技术进行了回顾,介绍了参数修剪、量化、转移 / 紧凑卷积滤镜和知识蒸馏等四类技术及其表现、应用、优点和缺点,同时探讨了评估矩阵、评估模型表现所使用的主要数据集和最近的基准努力,并讨论了面临的挑战和未来方向。
Oct, 2017
本文研究深度神经网络在领域迁移后的压缩问题,提出一种基于低秩矩阵分解的压缩算法,结合目标域的激活统计信息,在不降低模型性能的情况下将模型参数量压缩至传统技术的 5-20%。
Sep, 2017
本文介绍了一种称为 Self-Compression 的方法,可以移除神经网络中的冗余参数和减少表示权重所需的位数,从而简化网络结构,提高训练和推断效率。作者通过实验证明,使用 Self-Compression 方法可以在只保留网络中 18% 的权重和仅需 3% 的位数的条件下,还能实现浮点数的准确性。
Jan, 2023
本文介绍了一种基于 Tensor Ring Networks(TR-Nets)的神经网络压缩方法,通过在深度学习模型的全连接层和卷积层中应用该方法,能够显著地减少网络的计算和存储需求,且在保证模型准确率的前提下,能将模型的体积压缩数百倍,极大提升模型在资源受限设备上的可用性。
Feb, 2018
该论文综述深度神经网络在物联网应用中的压缩技术,并将现有方法划分为五个类别,包括网络修剪、稀疏表现、位精度、知识蒸馏和杂项,并探讨每个类别的挑战和未来方向。
Oct, 2020