本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015
本研究介绍了一种通过对抗网络压缩方法实现从深层精确的模型向更小的模型中转移知识的方法,该方法不需要使用标签进行训练,并在不同的师生模型上泛化;在五个固定的标准数据集上进行广泛的评估表明,该学生模型准确率略有下降,而且性能比其他知识传输方法更好,并且超越了同一网络在使用标签训练时的性能,并且对比其他压缩策略的表现也达到了现有的最佳水平。
Mar, 2018
本研究提出了 HashedNets 这一新型网络结构,在使用深度学习技术进行移动设备应用时,可以通过哈希函数来分组并共享连接权重参数,进而大幅缩小神经网络所需的存储空间,而不会明显影响其泛化性能。
Apr, 2015
本论文探讨了在移动设备和云端之间进行特征数据通讯的 “协作智能” 范式,研究了损失压缩特征数据对协作物体检测准确性的影响,并提出了一种策略来提高其在损失特征压缩下的准确性。实验结果表明,采用该策略,通信开销可以降低 70%而不会牺牲准确性。
Feb, 2018
本文提出了结合软权重共享和变分 dropout 方法的神经网络模型压缩新方法,达到了工业规模使用的标准。
Nov, 2017
本研究提出一种基于深度学习的非线性模型降维策略,通过深度卷积自编码器和 LSTM 网络构建模块化模型,实现繁重计算任务中的模型降维,同时保持计算效率和系统稳定性。
Aug, 2018
本文研究了在边缘设备上重新训练深度神经网络的应用,并提出了一种基于矩阵分解的简单方法来压缩模型更新,以最小限度地传输数据,该方法与联邦学习类似,但一般来说,比现有方法需要的更新数据量少一半以上。
Mar, 2022
本文提出了一种名为 JASQ 的方法,将神经网络的架构设计与模型压缩两项任务整合到统一框架中,可在考虑模型大小与性能准确性之间的平衡点上使用多目标进化算法搜索,实现高性能适合移动设备的紧凑神经网络模型。实验结果表明,该方法在搜索架构或仅搜索量化策略时优于现有方法。
Nov, 2018
通过研究过度参数化的深度网络的学习动力学,我们揭示了各种体系结构的权重矩阵展现出低维结构,我们利用这些洞见通过减小中间层的宽度来压缩深度线性网络,实验证明这种压缩技术能够加速训练过程超过两倍,而不牺牲模型质量。
Nov, 2023
本研究提出了使用矩阵积算子 (MPO) 来代替线性变换表示深度神经网络的方法,该方法可以最大限度地减少可变参数数量而不影响其预测能力,并在多个典型的神经网络上证明了其有效性和高效性。
Apr, 2019