Jan, 2022
哪个学生最好?针对任务特定BERT模型的综合知识蒸馏考试
Which Student is Best? A Comprehensive Knowledge Distillation Exam for
Task-Specific BERT Models
Made Nindyatama Nityasya, Haryo Akbarianto Wibowo, Rendi Chevi, Radityo Eko Prasojo, Alham Fikri Aji
TL;DR本文研究使用知识蒸馏从BERT模型到各种学生模型(BiLSTM、CNN、BERT-Tiny、BERT-Mini和BERT-Small)对印尼语文本分类和序列标记进行实验研究,提出了效率高的知识蒸馏训练机制,并发现使用BiLSTM和CNN学生模型可以在性能和计算资源方面提供最好的平衡。