利用深度语言模型与人脑之间的相似性,以模型为基础的方法成功地复制了一项神经元相关语言研究,比较了听取常规和乱序叙述的七名受试者的功能磁共振成像,并进一步扩展和精确到 305 名听取 4.1 小时叙述故事的个体的脑信号,从而为大规模且灵活地分析语言的神经基础铺平了道路。
Oct, 2021
本文探索基于任务特征学习的 Transformer 模型在基于两个数据集的大脑编码预测中的表现和认知洞察,并发现语法和语义任务在处理阅读和听力刺激时在大脑区域上均具有良好的预测性能。
May, 2022
本研究证明对 BERT 模型进行微调,可提高其对人们阅读文本时脑活动的预测能力,模型学习到的语言与脑活动之间的关系可以跨越多个参与者,同时不影响模型在自然语言处理任务方面的表现,这对于研究大脑中的语言理解具有显著意义。
Oct, 2019
本文研究使用基于 Transformer 的语言模型,比较了不同模型尺寸与训练数据规模对于预测功能性磁共振成像记录下的脑活动响应的影响。结果显示,当模型或数据规模增大时,在音频与语言预测方面均能获得显著性提升,这为在理解大脑语言处理机制和实际的解码应用上提供了改善的可能。
May, 2023
本文探讨了使用神经语言模型对大脑活动进行研究的方法,主要研究了测试损失、训练语料库和模型架构对捕捉大脑活动的影响,并提出了未来研究的良好实践建议。
Jul, 2022
使用大型语言模型研究大脑信号,通过测量模型的预测能力和大脑的相似性,关注大脑活动对语言处理的核心元素,并发现过度依赖大脑信号评分可能导致对大型语言模型与大脑相似性的过度解读。
Jun, 2024
通过将 10 种常用语言模型进行集成,我们的研究在所有感兴趣区域上比当前基准结果提高了平均 10% 的性能。
Oct, 2023
文本和语音语言模型能够准确预测脑部活动,但是消除特定的低级刺激特征后发现语音模型失去了对大脑的预测能力,进一步研究显示语音模型需要改进以更好地反映大脑的语言处理。
Nov, 2023
研究人员调查了超过 30 个研究、10 个数据集和 8 个测量方法,发现大脑和语言模型激活有一些结构相似性,但现有证据还不充分,需要更多研究。
Jun, 2023
比较神经语言模型和心理可信模型,发现心理可信模型在多种多样的背景下(包括多模态数据集、不同语言等)表现更优,尤其是在融合具象信息的心理可信模型中,对单词和段落层面的大脑活动预测表现最佳。
Apr, 2024