神经网络压缩的软权重共享
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017
本文提出了一种迭代的量化技术,将权重量化和完整精度权重的重新训练结合起来,以达到高压缩比和减少量化损失,同时证明该方法能够有效地利用剪枝等其他模型压缩技术,实现在 PTB 数据集上使用 1-bit 量化重量的 LSTM 模型,减少了硬件资源需求但不会降低准确性。
May, 2018
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015
本研究介绍了一种轻量级的压缩技术,用于在边缘设备上进行代码的分割,仅针对深度神经网络中的激活,而且不需要任何重新训练。当应用于流行的对象检测和分类深度神经网络时,能够将 32 位浮点激活压缩到 0.6 至 0.8 位,同时保持精度损失不到 1%。
May, 2021
本文考虑使用权重量化压缩深度网络,将最近提出的有损权重二值化方案推广到三值化,并在前馈和循环神经网络上进行实验,发现该方案优于现有的权重量化算法,精度与全精度网络相当或更高。
Feb, 2018
通过使用带有 K 个条目的码簿进行实值权重的量化,我们提出了一种新方法,该方法基于模型压缩作为约束优化框架,交替进行连续权重的网络学习和权重量化(或二值化 / 三值化)的步骤,以便在量化网络的损失上收敛到局部最优解。
Jul, 2017
本文介绍了一种称为 Self-Compression 的方法,可以移除神经网络中的冗余参数和减少表示权重所需的位数,从而简化网络结构,提高训练和推断效率。作者通过实验证明,使用 Self-Compression 方法可以在只保留网络中 18% 的权重和仅需 3% 的位数的条件下,还能实现浮点数的准确性。
Jan, 2023
本文提出了一种基于梯度下降优化的深度神经网络压缩的精细化量化方法,通过在不同结构、层次上采用不同的精度,达到更好的压缩比和准确率的平衡。实验结果表明,与传统量化方法相比,该方法在相同压缩率下表现更优。
Oct, 2018