May, 2024
通过神经架构搜索对预训练语言模型进行结构修剪
Structural Pruning of Pre-trained Language Models via Neural Architecture Search
Aaron Klein, Jacek Golebiowski, Xingchen Ma, Valerio Perrone, Cedric Archambeau
TL;DR基于预训练语言模型和神经架构搜索的结构修剪方法,通过多目标策略实现对子网络的灵活压缩,提高模型效率。