EMNLPOct, 2020

FastFormers: 高效 Transformer 模型的自然语言理解

TL;DR本研究提出了 FastFormers 来加快基于 Transformer 模型的 NLU 任务的推理效率,可以通过运用知识蒸馏、结构剪枝和数值优化等方法,将预处理模型在 CPU 和 GPU 上的速度提高至 9.8-233.9 倍,节省成本的同时降低能耗。