Nov, 2024
通过无标签数据进行大语言模型的知识蒸馏
Learning with Less: Knowledge Distillation from Large Language Models
via Unlabeled Data
TL;DR本研究解决了大语言模型(LLMs)在实际自然语言处理应用中由于其庞大体积和高计算需求而造成的实用性限制,尤其是在细调所需的情况下。论文提出了一种新的自适应样本选择方法LLKD,能有效地利用无标签数据生成伪标签以训练小模型,最终实现更高的数据利用效率和模型性能。