固定权重网络
本文考虑使用权重量化压缩深度网络,将最近提出的有损权重二值化方案推广到三值化,并在前馈和循环神经网络上进行实验,发现该方案优于现有的权重量化算法,精度与全精度网络相当或更高。
Feb, 2018
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017
该论文提出了一种基于贝叶斯神经网络(BNNs)和变分松弛的概率性框架,用于确定可以将哪些权重转移到哪个聚类中心以及在多大程度上,以提高权重共享量化方法的压缩性能和准确性。
Sep, 2023
本研究提出了一种基于 Hessian-weighted k-means clustering 和 ECSQ 的网络量化方案,以在达到压缩比约束的前提下最小化网络量化的性能损失,并进行了 LeNet,32 层 ResNet 和 AlexNet 的压缩实验。
Dec, 2016
通过使用带有 K 个条目的码簿进行实值权重的量化,我们提出了一种新方法,该方法基于模型压缩作为约束优化框架,交替进行连续权重的网络学习和权重量化(或二值化 / 三值化)的步骤,以便在量化网络的损失上收敛到局部最优解。
Jul, 2017
本文提出了一种迭代的量化技术,将权重量化和完整精度权重的重新训练结合起来,以达到高压缩比和减少量化损失,同时证明该方法能够有效地利用剪枝等其他模型压缩技术,实现在 PTB 数据集上使用 1-bit 量化重量的 LSTM 模型,减少了硬件资源需求但不会降低准确性。
May, 2018
本文研究深度神经网络的权重量化和无损源编码的有损压缩以实现内存有效部署,通过引入通用向量量化和通用源编码,实现了通用的深度神经网络压缩,并尝试运用通用随机格量化方法来随机化神经网络权重,证明该方法在压缩 32 层的 ResNet 和 AlexNet 时具有较高的压缩比和较低的失真率。
Feb, 2018
通过改变神经网络的结构和权重的位数,本文比较了硬件实现中神经网络规模和权重量化对网络性能的影响,提出了在硬件资源有限的情况下,指导网络规模和权重精度平衡的有效压缩比。
Nov, 2016
本文提出了一种通过使用全变分权重分布进行深度神经网络压缩的方法,能够实现更高的压缩率和更高的测试性能,并在 LeNet-5/MNIST 和 VGG-16/CIFAR-10 基准测试中创造出新的最优结果。
Sep, 2018
WSNet 是一种用于学习紧凑高效的深度神经网络的新方法和新架构,其通过采样可学习参数的紧凑集合来促进参数共享,并考虑应用在音频分类方面,实验证明此方法可以更有效地学习与基准相比卷积滤波器数量相等但更小的网络,并且在权重量化的情况下,所得模型的尺寸理论上可缩小至 16 倍,速度可提升至 180 倍,但无明显性能降低。
Nov, 2017