Feb, 2023

ZipLM:面向硬件感知的语言模型结构化剪枝

TL;DR该研究提出了一种新的大规模语言模型结构压缩方法 ZipLM,通过迭代的结构缩小模型的权重矩阵,实现在保证一组可行的目标加速比的同时提供最先进的压缩精度结果,并且能够在单次运行中在后训练 / 一次性和渐进压缩设置下生成一组准确的模型,其基于新的结构剪枝和知识蒸馏技术,结果表明 ZipLM 优于先前的结构压缩方法,尤其在 GPT2 模型上表现最佳。