Apr, 2024

多样情境下的多次学习

TL;DR大型语言模型在少样本上下文学习方面表现出色,通过在推断时从上下文中提供的少量示例进行学习,无需任何权重更新。新的扩展上下文窗口使我们能够研究在上下文中使用数百或数千个示例进行学习的多样本学习方法。从少样本到多样本,我们观察到在各种生成性和判别性任务中取得了显著的性能提升。然而,多样本学习在可用的人类生成示例方面存在瓶颈。为了缓解这一限制,我们探索了两种新的设置:增强和无监督的多样本学习方法。增强多样本学习方法使用模型生成的思考链替代人类示例。无监督多样本学习方法则完全取消了提示信息中的理由,并仅通过领域特定问题对模型进行提示。我们发现,增强和无监督多样本学习方法在多样本学习中非常有效,特别是在复杂推理任务中。最后,我们证明与少样本学习不同,多样本学习可以有效地覆盖预训练偏差,并学习具有数值输入的高维函数。我们的分析还揭示了下一个标记预测损失作为下游上下文学习性能指标的局限性。