Feb, 2024

展现操作方式:解释在细调语言模型中的作用

TL;DR我们的研究证明了使用解释来进行微调以提高语言模型性能的显著效益。与提示相比,微调允许模型在训练阶段学习和更新参数。我们将微调应用于包含输出解释而非仅呈现答案的数据中的各种规模的语言模型。即使是具有 6000 万参数的较小语言模型也从该方法中获益良多。有趣的是,我们的结果表明详细解释对较小的模型比大模型更有益处,后者几乎从任何形式的解释中获得同样的优势,无论其长度是多少。此外,我们证明包含解释使模型能够解决无法在没有解释的情况下解决的任务。最后,我们认为尽管添加解释具有挑战性,但包含解释的样本不仅减少了训练所需的数据量,还促进了模型的更有效泛化。总之,我们的研究结果表明,使用解释进行微调显著增强了大型语言模型的性能。