BriefGPT.xyz
Apr, 2022
结构化剪枝学习紧凑而精确的模型
Structured Pruning Learns Compact and Accurate Models
HTML
PDF
Mengzhou Xia, Zexuan Zhong, Danqi Chen
TL;DR
提出 CoFi(粗细粒度剪枝)方法,该方法结合了粗细粒度模块的剪枝决策,并采用分层蒸馏策略将知识从未剪枝模型转移到已剪枝模型,使模型同时拥有与蒸馏方法相当的精度和延迟优势,而无需使用无标注数据。在 GLUE 和 SQuAD 数据集上的实验表明,CoFi 方法在速度和精度方面相对于以前的剪枝和蒸馏方法具有更高的效率和效果。
Abstract
The growing size of
neural language models
has led to increased attention in
model compression
. The two predominant approaches are
pruning
→