AAAIDec, 2021

从密集到稀疏:对比剪枝用于更好的预训练语言模型压缩

TL;DR我们提出了一种名为 ContrAstive Pruning(CAP)的模型压缩框架,它保留了先前模型的任务不可知知识和任务特定知识,并证明了该方法在极高稀疏度情况下均能显著提高模型性能。