Dec, 2023

PERP: 重新思考 LLM 时代的修剪再训练范式

TL;DR通过修剪来高效地压缩神经网络,减少存储和计算需求,同时保持预测性能,我们提出了一种参数高效的修剪后重训练方法,使得修剪和重训练大规模语言模型的任务成为可能。