固定 - 固定模型压缩中不规则稀疏编码权重
本研究分析稀疏性对深度神经网络加速器的设计效率和预测精度的影响,证明了相对于细粒度稀疏性,粗粒度稀疏性能够在保持同等精度的前提下获得更好的压缩率和更高效的硬件设计
May, 2017
本文评估了三种在深度神经网络中引入稀疏性的技术,并对两个大规模的学习任务进行了严格评估,结果表明,简单的幅度剪枝方法可以获得相当或更好的性能,而不能从头开始训练稀疏结构,并强调了建立大规模基准测试的必要性。
Feb, 2019
本文提出一种新的 fine-grained sparsity 方法,即平衡稀疏化方法,使得深度学习模型在商用硬件上得以高效地获得准确性和加速,同时利用 GPU 的高并行特性,取得了高达 3.1 倍的实际加速效果。
Nov, 2018
我们认为表示学习的自然目标是将数据的分布压缩和转换为支持在不相关子空间上的低维高斯混合模型。我们通过基于名为稀疏率减少的原则性度量评估这种表示的好坏,该度量同时最大化所学表示的内在信息增益和外在稀疏性。从这个角度来看,包括变压器在内的流行深度网络结构可以看作是实现此度量优化的迭代方案。特别地,我们从这个目标的部分交替优化中推导出一个变压器块:多头自注意算子通过在特征的编码率上实施近似梯度下降步骤来压缩表示,随后的多层感知机稀疏特征。这导致了一系列名为 CRATE 的白盒变压器式深度网络结构,其在数学上是完全可解释的。我们通过去噪和压缩之间的新连接表明,前述压缩编码的逆可以由同一类 CRATE 架构实现。因此,这些衍生的白盒架构对编码器和解码器都是通用的。实验证明,尽管简单,但这些网络确实学习到了大规模实际图像和文本数据集的压缩和稀疏表示,并实现了与高度工程化的基于变压器的模型(ViT,MAE,DINO,BERT 和 GPT2)非常接近的性能。我们相信所提出的计算框架在统一的数据压缩视角下展示了深度学习理论和实践之间的巨大潜力。代码可以在此链接获得: https:// 此 URL。
Nov, 2023
本文提出了一种新的修剪方法,用于在不影响恢复精度的情况下减小图像修复网络的尺寸,该方法根据每个层的不同计算复杂度和性能要求确定 N:M 结构稀疏的修剪比,通过大量的实验结果表明,该方法在超分辨率和去模糊任务中的表现优于以前的修剪方法。
Apr, 2022
通过结合权重剪枝和模型蒸馏技术,我们提出了一种新的方法,用于训练稀疏的预训练变压器语言模型,这些模型可以快速高效地用于各种自然语言处理任务,并保持其稀疏性,同时我们进一步使用量化感知训练来将这些稀疏模型压缩为 8 位精度。我们证明了我们的稀疏预训练 BERT-Base、BERT-Large 和 DistilBERT 可以在多种自然语言任务中以极小的准确度损失传输其知识,是目前压缩 - to - 准确度比率最好的压缩 BERT-Base、BERT-Large 和 DistilBERT 方法。
Nov, 2021
通过公平剪枝技术,我们提出了一种基于稀疏模型的公平剪枝框架,旨在在保持性能的同时确保公平性,并通过实验证明了该方法在维持模型公平性、性能和效率方面的优越性。
Dec, 2023
本文研究了一种 N:M 级别的深度神经网络稀疏网络,在专门设计的 GPU 上同时具有非结构化细粒度稀疏性和结构化粗粒度稀疏性的优点,解决了传统稀疏网络的效率问题,同时提出了一种 Sparse-refined Straight-through Estimator 方法,解决了传统优化方法下的负面影响。
Feb, 2021
本研究提出了一种基于等式约束的 0-1 整数线性规划问题和自我正则化机制的迭代模型修剪方法,应用于各种基于 Transformer 的 PLMs,使得在高稀疏度时具有更好的泛化性能。
May, 2023