将变形金刚中的上下文学习链接到人类的情节记忆
通过对注意力头的运行进行详细分析,我们发现特定的注意力头在上下文学习的能力中具有重要的语义联系,从而推进了我们对 transformers 中注意力头运行的复杂操作和大语言模型上下文学习的新洞察。
Feb, 2024
本文从六个方面提出了假设,指出 “感应头” 可能构成了大型变换器模型中大部分 “上下文学习” 的机制。同时,通过强因果证据和相关性证据,证明了这种感应头可能是任何大小的变压器模型中一般情况下上下文学习的来源。
Sep, 2022
该论文主要探讨利用人类记忆系统中的交叉连接假设来增强记忆增强型 Transformers 模型,并以惊奇度作为交叉连接假设模型进行实证研究,并识别该方法的局限性以指导未来的研究。
Oct, 2022
本研究使用合成机制来考察 transformers 在处理全局信息与上下文信息时的权衡,发现这些模型相对较快地学习了全局信息,但对于上下文信息中的二元组的识别则较慢,同时探究了权重矩阵作为联想记忆的作用以及梯度如何使其在训练时进行学习的理论机制,同时研究了数据分布属性的作用。
Jun, 2023
基于人类行为学视角,我们探究了大型语言模型(LLMs)的预测过程和内部机制,通过将 LLMs 的值与眼动测量结果相关联,发现 LLMs 表现出与基于 RNN 的语言模型不同的预测模式。此外,随着前馈网络(FFN layers)的升级,记忆和语言知识编码的能力也逐渐提升直至达到巅峰,并转向注重理解能力。自注意力机制的功能分布在多个头部。最后,我们审查了门控机制,发现它们控制信息的流动,有些门控机制促进信息的传递,而其他门控机制则消除信息。
Oct, 2023
通过研究大型语言模型,该论文揭示了语言模型与人类大脑的相似性,重点分析了架构组件中的分词策略和多头注意力以及需求确定性的关键因素,最终提出了一种高度与人类大脑和行为对齐的模型。
Jun, 2024
通过研究注意力头与特定 “下一个标记” 神经元在预测特定标记的多层感知机中的相互作用,我们可以揭示激活特定下一个标记神经元的注意机制。具体而言,我们关注在较早层次中不同提示下始终激活相同下一个标记神经元的注意力头。我们的方法结合了神经解释和探测孤立组件,以阐明注意力如何在语境依赖的专门处理中发挥作用。
Feb, 2024
本文提出了一种基于内部工作记忆模块的决策制定代理,可以通过存储、混合和检索信息来改善其在不同下游任务中的训练效率和泛化能力,并进一步证明记忆微调可以增强所提出架构的适应性。
May, 2023
大型语言模型具有存储和提取事实的能力,并且可以通过改变上下文来操纵提取事实的能力,揭示出它们可能像联想记忆模型一样行为,其中上下文中的某些令牌作为提取事实的线索。我们通过研究 transformer 如何完成此类记忆任务,对这一属性进行了数学探索,使用一个简单的单层 transformer 研究了简单的潜在概念关联问题,理论和经验都表明 transformer 使用自注意力来收集信息并使用值矩阵进行联想记忆。
Jun, 2024