ACLApr, 2024

揭开模仿学习的面纱:探索数据虚假对大型语言模型的影响

TL;DR通过使用合成指令数据重新训练 ChatGPT 和 GPT-4 等领先专有模型,许多最近的研究试图改进开源语言模型的模仿学习。然而,合成数据的固有特性本质上包含有噪声的数据,导致大量低质量数据存在错误响应和有缺陷的推理。本文探讨了噪声程度与其对语言模型的影响之间的相关性,并通过指令调整来实现。我们首先引入了 “可控虚假性”(FACO)数据集,该数据集包含了真实答案及相应推理的对应对,以及用于手动控制数据集虚假比率的虚假对。通过我们的大量实验证明了指令的虚假性与各种基准得分的相关性的多个有趣发现。此外,当 LLM(语言模型)使用虚假指令训练时,它们会学会撒谎和生成虚假不忠实的答案,即使它们知道正确答案的用户请求。此外,我们注意到,一旦语言模型使用受噪声污染的数据集进行训练,恢复其原始性能是可能的,但无法达到完全性能。