Jul, 2024

从循环到意外:不确定性下的语言模型回退行为

TL;DR大型语言模型通常表现出不良行为,如幻觉和序列重复。我们将这些行为视为模型在不确定性下的后备方案,并研究它们之间的关联。通过对同一家族的模型进行广泛分析,在预训练令牌数量、参数数量或包含遵循指令的训练等方面的差异中,我们将后备行为归类为序列重复、退化文本和幻觉。我们的实验揭示了所有这些轴上后备行为的清晰且一致的排序:LLM 越先进(即训练更多令牌数、具有更多参数或经过了指令调优),其后备行为会从序列重复转变为退化文本,然后变成幻觉。此外,即使对于表现最佳的模型,在单个生成过程中也观察到相同的排序:随着不确定性的增加,模型从生成幻觉转变为产生退化文本,然后是序列重复。最后,我们证明了常见的解码技术,如随机取样,可以缓解某些不希望出现的行为,如序列重复,但会增加更难检测到的幻觉。