Jan, 2023

SparseGPT:一次修剪即可在大型语言模型上进行精准压缩

TL;DR本文提出了一种名为 SparseGPT 的新型剪枝方法,能够高效、准确地应用于海量的 GPT 模型,实现一次性稀疏化至少 50%,并在几乎不影响困惑度的情况下,将最大可用的开源模型 OPT-175B 和 BLOOM-176B 稀疏化至 60%。