ACLJun, 2020

任务导向对话中的自然语言理解加速

TL;DR本研究使用结构化剪枝方法对卷积模型进行压缩,比 BERT 模型的性能差异不大,模型参数少于 100K,适用于移动设备,并在 CPU 上比 DistilBERT 快 63 倍。