AAAIDec, 2020

强化多教师选择的知识蒸馏

TL;DR本文研究了一种改进模型压缩方法,通过强化学习动态调整知识蒸馏中教师模型的权重,从而提高了学生模型性能,适用于自然语言处理任务。