Oct, 2023

剪枝加速的LLaMA:通过结构化剪枝加快语言模型预训练

TL;DR利用结构修剪技术从预训练的大型语言模型生成更小但功能强大的语言模型。这项工作通过展示Sheared-LLaMA系列,在仅使用相当于从头训练这些模型所需计算量的3%的情况下,将LLaMA2-7B模型修剪为1.3B和2.7B参数,优于等规模的开源模型,并提供了使用结构修剪来构建更小型语言模型更具成本效益的佐证。