ACLFeb, 2020
基于 Transformer 的大规模模型压缩:以 BERT 为例的案例研究
Compressing Large-Scale Transformer-Based Models: A Case Study on BERT
Prakhar Ganesh, Yao Chen, Xin Lou, Mohammad Ali Khan, Yin Yang...
TL;DR本文总结了压缩预训练 Transformer 模型的研究进展,尤其关注流行的 BERT 模型的最佳压缩实践和方法,提出未来发展的方向,以达到轻量、高准确性和通用性的自然语言处理模型。