COLINGAug, 2022

自然语言任务上结合压缩的乘法尺度缩放

TL;DR本研究在六个 BERT 架构和八个 GLUE 任务上探究了神经网络压缩方法中的量化、知识蒸馏和幅度修剪,发现量化和知识蒸馏提供了比修剪更大的好处,同时多种方法的组合具有协同减小模型大小的效果。