本文利用交替方向乘子法 (ADMM) 提出了一种深度神经网络 (DNNs) 系统权值剪枝框架,通过约束非凸优化问题,并借助 ADMM 框架对权重剪枝进行有序化处理,以在保持相同测试精度以内的情况下实现更高的压缩率和更快的收敛速率。
Feb, 2018
采用交替方向乘子法(ADMM)的系统性权值剪枝框架解决了深度神经网络中常见的非凸优化问题和稀疏性约束问题,实现了较快的收敛速度和较优的剪枝效果。
Apr, 2018
本文介绍了一种名为 Wanda 的裁剪方法,旨在在无需微调或权重更新的情况下诱导预训练 LLMs 的稀疏性,并在 LLaMA 上进行全面评估,实验证明 Wanda 在各种语言基准测试中显著优于基线剪枝方案,并与涉及大量权重更新的最近方法竞争优势。
Jun, 2023
该篇论文提出了一种基于 ADMM 的渐进式权重剪枝方法,可以在中等剪枝率下进行局部剪枝,从而达到极高的剪枝速率,避免了准确度降低和收敛速度缓慢的问题。该方法在 ImageNet 和 MNIST 数据集上实现了高达 34 倍和 167 倍的剪枝速率。
Oct, 2018
基于优化的结构剪枝方法通过在概率空间中学习剪枝掩码,通过前向传递和策略梯度估计器进行高效优化,实现对大型语言模型的剪枝,并在复杂性和效果方面超越现有方法。
Jun, 2024
基于大型语言模型的权重分解以及压缩方法,通过新的无需语料库参与、保持正交性的数据无关联 Rank-k 近似方法,成功压缩了 80% 的参数并保留了原始性能的 93.43%。同时,对经过 Rank-k 近似的权重矩阵进行了深入研究以验证假设。
Feb, 2024
本文介绍了一种名为 ALPS 的基于优化的框架,用于通过操作拆分技术和预条件共轭梯度后处理步骤处理修剪问题,并结合向量化和 GPU 并行性以提高效率,在修剪目标和困惑度降低方面远远超过现有方法,特别是对于高度稀疏的模型。在 OPT-30B 模型上,其稀疏度为 70%,ALPS 在 WikiText 数据集上实现了 13%的测试困惑度减少和比现有方法提高了 19%的零样本基准性能。
在大型语言模型中,考虑到模型权重的扰动效应,我们通过优化分析和 Moreau 包络来提出了一种名为 MoreauPruner 的结构剪枝方法,能够稳定地对模型进行剪枝,并成功地与其他几种剪枝方法进行了比较。
用于资源受限设备的大型语言模型结构剪枝方法,在多层结构的基础上,通过自适应建模和融合估计结果实现了对每个子结构的重要性的自适应调整,实验结果表明在主流数据集上相比最先进的方法,平均准确率提高了 1.1%,1.02%,2.0%和 1.2%。
Mar, 2024
通过重新定义全局修剪过程为可管理的、协调的子问题,并利用辅助变量进行问题分解,AdaGP 框架在 LLMs 上展示了重要的性能提升,特别是在高稀疏度范围内超越了当前最先进的方法。