May, 2025

重新思考上下文学习中的不变性

TL;DR本文针对自回归大型语言模型中出现的上下文学习(ICL)对上下文示例顺序敏感的问题,提出了一种新的方法。通过识别信息非泄漏和上下文相互依赖性这两个关键要素,本文开发了不变ICL(InvICL)方法。实验证明,InvICL在大多数基准数据集上超越了现有模型,展现了更强的泛化能力。