EMNLPMar, 2022
最优 BERT 外科医生:可扩展和精确的二阶修剪方法,适用于大型语言模型
The Optimal BERT Surgeon: Scalable and Accurate Second-Order Pruning for Large Language Models
Eldar Kurtic, Daniel Campos, Tuan Nguyen, Elias Frantar, Mark Kurtz...
TL;DR本文研究了 Transformer-based 语言模型的压缩方法,提出了基于 oBERT 的权重剪枝方法并将其应用在 BERT 模型的训练和 fine-tuning 中,同时利用多种压缩方法得到高压缩模型并在边缘设备上进行了部署。