Mar, 2024
利用零射击提示进行高效的语言模型蒸馏
Leveraging Zero-Shot Prompting for Efficient Language Model Distillation
TL;DR本文介绍了一种新颖的方法,可以将LLMs高效地提炼成更小的、面向特定应用的模型,显著降低运营成本和人工劳动。该方法利用LLMs的推理能力为无标签数据生成标签和自然语言解释,从而在有限数据和计算资源情况下增强模型的微调和提炼效果。其中关键贡献包括使用零样本提示获取教师模型的解释,减少手工制作的小样本示例的需求,并降低令牌数,这直接转化为主要技术公司LLM API的按令牌计费模式下的成本节约。此外,本文还研究了解释特性对提炼效率的影响,并证明了即使在整个数据集上未应用理由增强时也几乎不会导致性能损失,从而进一步减少了令牌数量。这项研究是朝向最小化人工干预、高效训练特定任务模型的一步,提供了大幅降低成本并保持甚至增强性能的可能性。