探视黑盒代码语言模型
通过实验我们发现,transformer 模型中的前馈层作为键值内存操作,其键与训练示例中的文本模式相关,并且每个值在输出词汇表上引入一个分布。同时利用残差连接使得前馈层的输出分布集中于出现在每个模式后的可能出现的标记。
Dec, 2020
研究发现,大型语言模型(code-LLMs)只能编码特定子集的输入令牌之间的关系,并且无法编码语法令牌与标识符之间的关系。此外,与预训练模型相比,微调模型对这些关系的编码较差,并且拥有数十亿参数的更大模型对于代码信息的编码显著较少。
Jun, 2024
基于人类行为学视角,我们探究了大型语言模型(LLMs)的预测过程和内部机制,通过将 LLMs 的值与眼动测量结果相关联,发现 LLMs 表现出与基于 RNN 的语言模型不同的预测模式。此外,随着前馈网络(FFN layers)的升级,记忆和语言知识编码的能力也逐渐提升直至达到巅峰,并转向注重理解能力。自注意力机制的功能分布在多个头部。最后,我们审查了门控机制,发现它们控制信息的流动,有些门控机制促进信息的传递,而其他门控机制则消除信息。
Oct, 2023
大型语言模型中的词汇语义在不同层次上具有不同的演化形式,较低层次的表示编码了词汇语义,而较高层次的表示则更适用于预测任务。
Mar, 2024
本文详细分析了大型语言模型(LLMs),重点关注自然语言处理中一种重要的开源基础模型 LLaMA。通过设计选择题任务来评估 LLaMA 在高阶任务(如推理和计算)中的内在理解能力。我们水平对比不同大小的模型,垂直评估不同层次的模型,并揭示了基于设计的评估任务的几个关键而不寻常的发现:(1)在水平分析中,扩大模型规模几乎无法自动带来额外的知识或计算能力,但可以增强推理能力,特别是在数学问题解决方面,并有助于减少幻象,但只有超过一定规模阈值才能实现;(2)在垂直分析中,LLaMA 的较低层次缺乏实质性的算术和事实知识,展示了逻辑思维、多语言和认知能力,而顶层具有最大的计算能力和现实世界的知识。
Dec, 2023
追踪了 70 百万到 28 亿参数规模的 3000 亿标记的解码器型大语言模型中模型机制的出现和演化,发现任务能力和支持它们的功能组件在规模不同的情况下一致地出现,并且虽然这些组件可能随时间由不同的注意力头实现,但其实施的总体算法保持不变。这些结果表明,在预训练结束后进行的对小型模型的线路分析仍然适用于额外的预训练和不同规模的模型。
Jul, 2024
多语言模型(LLMs)中的多语言能力和处理机制的体系结构、激活模式和处理方法的深入分析的研究结果表明模型的层次结构和深度对多语言处理能力有影响。
Apr, 2024
通过分析 Transformer 中的前向模块,研究表明其可以被视为一系列键值记忆,提出了关于多语言模型中神经元对不同语言的响应不平等的假设,并通过实验证实了此假设。
Oct, 2023
大型语言模型在跨多种语言表现出卓越的性能。本文探讨了大型语言模型处理多语言的方式,提出了一个处理多语言输入的框架,并利用该框架验证其有效性,并展示如何通过该框架有效提升多语言能力。
Feb, 2024