Aug, 2023

无需重新训练的预训练语言模型知识保留剪枝

TL;DR提出了一种名为 K-pruning (Knowledge-preserving pruning) 的准确的无需重新训练的结构化修剪算法,用于预训练的语言模型压缩,并在 SQuAD 基准测试中展示了比现有的无需重新训练的修剪算法高达 58.02% p 的 F1 分数的优势。