ACLOct, 2021

自然语言理解中模型蒸馏和剪枝的稳健性挑战

TL;DR本研究分析了两种流行的模型压缩技术对于预训练语言模型鲁棒性和泛化能力的影响,并且在样本不确定性的基础上提出了一种偏见缓解框架,用于提高模型的泛化能力。