Oct, 2023

语言模型是如何在上下文中绑定实体的?

TL;DR通过分析语言模型表示法,我们识别出绑定 ID 机制:一种在足够大的 Pythia 和 LLaMA 系列模型中观察到的解决绑定问题的通用机制。我们使用因果干预证明语言模型的内部激活通过将绑定 ID 向量附加到相应的实体和属性上来表示绑定信息。我们进一步展示,绑定 ID 向量形成一个连续的子空间,其中绑定 ID 向量之间的距离反映了它们的可辨性。总体而言,我们的结果揭示了语言模型在上下文中表示符号知识的可解释策略,为理解大规模语言模型中通用的上下文推理迈出了一步。