Sep, 2024
通过高效的多模态分布对齐提升大型语言模型的知识蒸馏
Enhancing Knowledge Distillation of Large Language Models through
Efficient Multi-Modal Distribution Alignment
TL;DR本研究解决了知识蒸馏中学生模型学习教师大型语言模型多模态概率分布的困难。我们提出了一种基于排序损失的知识蒸馏方法(RLKD),通过提升模型预测峰值之间的排序一致性,有效改进了现有知识蒸馏方法的效率。实验结果显示,该方法显著提高了学生模型在多种下游任务中的表现。