改进的贝叶斯压缩
本研究通过采用贝叶斯视角,使用稀疏感知先验来修剪网络,使用 Hierarchical priors 修剪节点并使用后验不确定性确定编码权重的最优固定点精度,使得压缩率达到了最佳水平,并且仍然具有与优化速度或能量效率的方法相竞争的性能。
May, 2017
本文介绍了一种称为 Self-Compression 的方法,可以移除神经网络中的冗余参数和减少表示权重所需的位数,从而简化网络结构,提高训练和推断效率。作者通过实验证明,使用 Self-Compression 方法可以在只保留网络中 18% 的权重和仅需 3% 的位数的条件下,还能实现浮点数的准确性。
Jan, 2023
本文提出了一种基于张量网络的压缩算法,能够显著地降低神经网络的参数量,从而提高其压缩效果和泛化性能。实验证明,该算法可将包含上千万参数的 VGG-16 模型的卷积层压缩为仅包含 632 个参数的张量网络,同时提升在 CIFAR-10 数据集上的测试准确率。该算法可被看作是一种高效的神经网络参数压缩方案,能够充分挖掘神经网络的可压缩性。
May, 2023
该论文综述深度神经网络在物联网应用中的压缩技术,并将现有方法划分为五个类别,包括网络修剪、稀疏表现、位精度、知识蒸馏和杂项,并探讨每个类别的挑战和未来方向。
Oct, 2020
本文介绍了一种新的深度神经网络压缩方法,在学习阶段增加额外的正则化项来减小全连接层的参数量,并结合 PQ 权重的量化以更节约存储空间。在 MNIST 和 CIFAR10 数据集上进行评估,与现有方法相比,压缩率显著提高。
Sep, 2015
提出一种名为 Weightless 的新颖方案,其基于 Bloomier 过滤器并结合传统压缩技术,在不影响模型准确性的前提下,可以将深度神经网络的内存占用降低至原来的 1/496,较现有技术获得了 1.51 倍的提升。
Nov, 2017