ACLFeb, 2020

基于 Transformer 的大规模模型压缩:以 BERT 为例的案例研究

TL;DR本文总结了压缩预训练 Transformer 模型的研究进展,尤其关注流行的 BERT 模型的最佳压缩实践和方法,提出未来发展的方向,以达到轻量、高准确性和通用性的自然语言处理模型。