上下文收敛的 Transformer 模型
Transformers 在无需显式先前训练的情况下,基于输入示例学习和执行任务的能力,也称为上下文学习(ICL),是其成功的基础。本研究提供了关于所需样本复杂性、预训练任务多样性和上下文长度对成功 ICL 的明确答案,采用线性关注在 ICL 线性回归任务的可解模型中推导出了学习曲线的锐利渐近线。通过实验证明了随着先前训练示例数量增加,学习曲线具有双峰,且模型的行为在低和高任务多样性之间出现相变:在低多样性情况下,模型趋向于记忆训练任务,而在高多样性情况下,它实现了真正的上下文学习并在预训练任务范围之外进行泛化。这些理论洞见通过线性关注和完全非线性 Transformer 架构的实验进行了经验证实。
May, 2024
研究注意力机制的神经网络 transformer 采用渐变流进行单个线性自注意层的训练,实现在新的预测任务中使用标记示例的测试提示时具有预测误差与测试提示分布上最佳线性预测器相竞争的能力,且在多种分布转换下具有鲁棒性。
Jun, 2023
本文针对 Transformer 注意机制进行研究,基于 softmax 回归建模,研究了单个自注意力层诱导数据转换的上限,并通过梯度下降训练 self-attention-only Transformers 来学习基本回归任务,发现梯度下降和 Transformers 所学的模型具有很大的相似性。
Apr, 2023
通过在不断变化的数据分布下比较转换器和基于集合的 Multi-Layer 感知机的表现,研究了上下文学习的一些普遍限制,发现转换器模型更准确地模拟了最小二乘法的性能,并且对于轻微的分布移位更具有鲁棒性,但在严重分布移位的情况下,两个模型的上下文学习能力都会减弱。
May, 2023
通过进行线性回归任务的实验,研究了 transformer 结构的优势,并提供了相应的理论直觉来解释 transformer 如何从非结构化数据中进行上下文学习。特别是观察到:(1)具有两层 softmax (self-) attention 和前瞻性注意力掩码的 transformer 可以从提示中进行学习;(2)位置编码可以进一步提高性能;(3)具有较高输入嵌入维度的多头注意力优于单头注意力。
Feb, 2024
在隐含背景数据的推断过程中,探索了 softmax 注意力机制在回归任务中的作用,发现注意力单元通过学习窗口,可以适应不同的预训练任务,并随着 Lipschitz 性质降低和标签噪声增加而扩大,同时对于低秩线性问题,注意力单元可以在推断之前进行适当的投影。此外,该适应性依赖于 softmax 激活函数,不同于传统线性激活函数的理论分析。
Feb, 2024
该文提出一种新的模型训练方法,称为 in-context learning,可以使 transformer 模型通过给定的输入输出对,学习出新的输入对应的输出,而无需更新参数。研究者们在极小的数据集上训练模型进行线性函数的 in-context learning,发现该模型即使出现了数据分布的改变,也能够对复杂函数进行有效和快速的学习。
Aug, 2022
Transformer 模型表现出上下文学习:基于输入序列中的示例,准确预测对新查询的响应。研究讨论了训练数据分布和架构方面哪些因素支持上下文学习和传统的查询 - 输出关系学习。研究还提出了在简化数据集上训练的最小关注网络模型,阐明了上下文学习受到诱导头突然出现的驱动。该研究建议,基于注意力的网络的明显转折是由于实现上下文学习所必需的特定多层操作链引起的。
Dec, 2023
本文通过多种线性和非线性函数类的实证观察,延伸了之前的研究,表明了 transformers 的理想学习者表现,并探究了其在 Bayesian 模型和多任务环境下的应用,还以傅里叶级数为例研究了其归纳偏差。
Jun, 2023