Feb, 2024

对比教学调节

TL;DR指令调优是一种改善大型语言模型对未知任务性能的有前途的方法。然而,当前的大型语言模型在面对未知指令时表现出有限的稳健性,当相同的指令以稍微变形或语言风格变化的形式表达时会生成不一致的输出。这种行为表明大型语言模型对文本变化的稳健性和对未见指令的泛化能力存在缺陷,可能引发不可靠性问题。基于此,我们提出了对比指令调优,该方法通过最大化语义上等效的指令实例对的隐藏表示之间的相似性,最小化不同语义的实例对之间的相似性。为了促进这一方法,我们通过改写任务指令来扩充现有的 FLAN 集合。在 PromptBench 基准测试上的实验证明,对比指令调优(CoIN)能够使大型语言模型在字符、词、句子和语义级别上对未知指令的稳健性得到持续提升,平均准确率提高了 2.5%。