Jul, 2024

使用半结构自适应稀疏训练修剪大型语言模型

TL;DR本研究解决了大型语言模型(LLMs)在部署时面临的参数数量和内存消耗问题,通过提出了一种称为自适应稀疏训练(AST)的新训练流程,克服了传统无训练剪枝方法的性能下降。AST通过知识蒸馏和自适应选择更优的剪枝策略,显著缩小了稠密模型与稀疏模型之间的性能差距,结合量化方法时可实现高达16倍的模型压缩,同时保持较小的性能损失。