ACLFeb, 2020

压缩 BERT:研究权重剪枝对迁移学习的影响

TL;DR本文探讨使用权重剪枝压缩 BERT 模型对迁移学习的影响,研究结果发现,对于预训练模型进行低水平的剪枝不会对其迁移能力造成影响,而高水平的剪枝则会导致模型性能的下降。在指定任务中对 BERT 进行微调并不会对其剪枝产生帮助。因此,本文得出结论:可以在预训练期间对 BERT 进行一次剪枝并保持其性能。