Dec, 2020

Meta-KD: 跨领域语言模型压缩的元知识蒸馏框架

TL;DR利用领域间的可转移知识,我们提出了一种元知识蒸馏 (Meta-KD) 框架,将初始的深度预训练模型压缩为体积更小的单域学生模型,并在多个 NLP 任务上进行了实验验证。