May, 2024

用短指令和合成位置进行长上下文对齐

TL;DR该研究论文介绍了一种名为 Step-Skipping Alignment 的技术,为大型语言模型(LLMs)增强了长上下文能力,通过在指令 - 跟随样本中策略性地插入跳过的位置来合成长程依赖,从而有效扩展上下文,并通过在不同上下文窗口大小的基础模型上进行广泛实验来验证其有效性。