Dec, 2020
CascadeBERT:通过校准完整模型级联加速预训练语言模型推断
Accelerating Pre-trained Language Models via Calibrated Cascade
TL;DR本研究分析了动态提前退出的工作机制,并发现其在高速比下面临性能瓶颈。为了解决这个问题,提出了一个新的框架CascadeBERT,可以在重要性和正确性方面提供综合的表示。 经过实验证明,与现有的动态提前退出方法相比,CascadeBERT在六个分类任务上的性能提升达到了15%,可实现4倍加速。