大型语言模型朝向类脑词表示的收敛
大型语言模型在知识提取、推理和对话方面显示出与人类相似的表现,但是它们的表现究竟是通过记忆和模式匹配来解释的,还是反映了人类般的推理语义和世界知识,存在争议。本文展示了大型语言模型学习以类似于知识库的方式组织概念,这些知识库提供了推理语义和世界知识的大规模高质量表征。大型语言模型似乎从原始文本中引出这种知识,而更大更好的模型表现出更符合人类的概念组织,涵盖了四个系列的语言模型和三个知识图谱嵌入。
Aug, 2023
通过研究使用大型语言模型(LLMs)探索人工神经处理和语言理解之间相似性的因素,我们发现随着 LLMs 在基准任务上性能的提高,它们不仅在预测 LLM 嵌入的神经相应性时表现出更高的脑部相似性,而且它们的分层特征提取路径与大脑的映射更为密切,并且使用较少的层进行相同的编码。此外,我们还比较了不同 LLMs 的特征提取路径,发现高性能模型在层次化处理机制方面更多地趋同。最后,我们展示了上下文信息在提高模型性能和与大脑相似性方面的重要性,并揭示了大脑和 LLMs 语言处理的融合特点,为开发更加与人类认知处理密切相关的模型提供了新方向。
Jan, 2024
大型语言模型(LLMs)是巨大的人工神经网络,主要用于生成文本,但同时也提供了一个非常复杂的语言使用概率模型。我们调查了 LLMs 的记忆特性,并发现它与人类记忆的关键特征存在惊人的相似性,这一结果强烈暗示了人类记忆的生物特征对我们构建文本叙述的方式产生了影响。
Nov, 2023
研究发现,虽然语言模型和人类在处理语言时存在共同的计算原理,但它们在获取和使用语言方面存在明显差异,本研究通过比较语言模型的表示和人类大脑对语言的反应,发现语言模型并未很好地捕捉到情感理解、比喻语言处理和物理常识等三个现象,通过针对这些现象进行语言模型的细化调整,发现细化调整后的语言模型在这些任务中与人类大脑的反应更加一致,因此我们认为语言模型与人脑之间的差异可能源于语言模型对这些特定类型的知识的不足表示。
Nov, 2023
本研究旨在探讨大型语言模型是否能够成为认知模型,并发现通过在心理实验数据上微调这些模型,它们能够提供准确的人类行为表示,甚至在两个决策制定领域中表现比传统的认知模型更好。此外,我们展示了它们的表示含有模拟个体受试者行为所需的信息,并演示了在多个任务上进行微调的能力使得大型模型能够预测以前从未见过的任务中人类行为,这表明预先训练的大型模型可以被改进为通用认知模型,从而开辟了颠覆认知心理学和行为科学的新研究方向。
Jun, 2023
使用大型语言模型研究大脑信号,通过测量模型的预测能力和大脑的相似性,关注大脑活动对语言处理的核心元素,并发现过度依赖大脑信号评分可能导致对大型语言模型与大脑相似性的过度解读。
Jun, 2024
通过大规模语言模型(LLMs)来预测神经科学实验结果,发现 LLMs 在预测实验结果方面超过了专家,并且经过优化的神经科学文献模型 BrainGPT 表现更好,这预示着人类与 LLMs 共同合作进行科学发现的未来。
Mar, 2024
比较神经语言模型和心理可信模型,发现心理可信模型在多种多样的背景下(包括多模态数据集、不同语言等)表现更优,尤其是在融合具象信息的心理可信模型中,对单词和段落层面的大脑活动预测表现最佳。
Apr, 2024
回顾了和人脑活动相关的人工语言模型研究,发现人工神经网络中单词意义的神经表征与其使用的密集词向量高度吻合,并且人工神经网络内部的处理层次与人脑有相似之处,但是依据研究的不同而有所不同。因此,建立人工神经网络作为自然语言理解过程模型的当前挑战之一是利用其高度结构化的表征几何来映射表征到脑数据。
Jan, 2023