May, 2025

通过激活子空间理解加法的上下文学习

TL;DR本研究解决了语言模型在上下文学习中提取少量示例信号的机制问题。提出了一种新颖的优化方法,揭示了Llama-3-8B模型在加法任务中的学习能力仅依赖于三个注意力头,并且信号在六维子空间中提取。重要发现是,这些注意力头通过一种自我校正机制来提升学习准确性,展示了在前向传播中低维子空间的追踪如何提供细致的计算结构洞察。