深度学习的复杂模型限制了其巨大潜力的发挥,需要高效的稀疏化技术。贝叶斯稀疏化是一种关键方法,能够设计出在各种深度学习应用中既计算效率高又性能竞争力强的模型。本研究指出贝叶斯模型简化是一种更高效的模型参数修剪方法,相对于现有的基于随机变分推断的方案,具有更好的计算效率和修剪率。研究中通过对各种深度学习架构的实例进行了验证,包括经典的网络如 LeNet 以及现代框架如视觉 Transformer 和 MLP-Mixer。
Sep, 2023
本文提出了结合软权重共享和变分 dropout 方法的神经网络模型压缩新方法,达到了工业规模使用的标准。
Nov, 2017
本文提出了一种基于变分贝叶斯神经网络的数据压缩方法,并使用相对熵编码代替量化和熵编码以优化 $eta$-ELBO 的速率失真性能,同时通过迭代算法学习先验权重分布并采用渐进式细化过程来有效提高压缩性能。实验证明,该方法在图像和音频压缩方面具有强大的性能,同时仍保持简洁。
May, 2023
我们提出了一种利用贝叶斯推断的剪枝神经网络的新方法,该方法可以无缝地融入训练过程,并通过计算贝叶斯因子来指导迭代剪枝,从而实现所需的稀疏度,并保持竞争性的准确性。
Aug, 2023
通过使用信息论分歧度量,本文提出了一个基于深度神经网络 (DNNs) 权重的概率潜在空间的新的理论框架,解释了网络稀疏性与性能之间的关系,并通过实验证明了这个理论的结果。
Feb, 2024
本研究提出了利用网络压缩的方法来解决深度学习模型在资源有限的系统中的应用难题,并利用迭代剪枝技术使压缩后的网络更加高效和精确。实验证明该方法在与现有方法进行比较时在相同剪枝等级下表现更佳。
Feb, 2019
基于市场下行底部的趋势,通过计算国内主要增量资金、流动性、情绪、技术指标等多因素,进行权重计算,提出了基于隐藏半马尔科夫模型的股票量化分析方法。
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
本文介绍了一种通过神经网络的深度生成模型来提供低维参数化图像或信号流形的方法, 证明了其在噪声的压缩感知方面的收敛算法,其样本复杂度与先前的稀疏方法相比具有线性的优越性和改进的潜力。
Dec, 2018
本文提出了一种通过使用全变分权重分布进行深度神经网络压缩的方法,能够实现更高的压缩率和更高的测试性能,并在 LeNet-5/MNIST 和 VGG-16/CIFAR-10 基准测试中创造出新的最优结果。
Sep, 2018