Jun, 2024

因子化诅咒:预测逆转诅咒及更多的标记

TL;DR最好的语言模型仍然在幻影现象方面存在困难:生成的事实不正确,这妨碍了它们在训练期间可靠地检索到的信息;我们将逆序诅咒重新界定为因子化诅咒 - 模型在不同的因子化下学习相同联合分布的失败;通过一系列的受控实验,包括我们引入的模拟知识密集的微调任务的 WikiReversal,我们发现因子化诅咒是流行大型语言模型中使用的下一个标记预测目标的固有失败;此外,我们证明可靠的信息检索无法通过规模、反向标记甚至朴素的双向注意力训练来解决;因此,在专门数据上进行微调的各种方法在下游任务上必然会产生不同的结果,除非模型已经看到正确的令牌序列;在五个不同复杂程度的任务中,我们的结果揭示了一个有希望的前进路径:因子化不可知目标可以显著减轻逆序诅咒,并暗示了改进的知识存储和计划能力。