Jun, 2020

任务导向对话中的自然语言理解加速

TL;DR本研究使用结构化剪枝方法对卷积模型进行压缩,比BERT模型的性能差异不大,模型参数少于100K,适用于移动设备,并在CPU上比DistilBERT快63倍。