语音语言模型缺乏重要的与大脑相关的语义
本研究证明对BERT模型进行微调,可提高其对人们阅读文本时脑活动的预测能力,模型学习到的语言与脑活动之间的关系可以跨越多个参与者,同时不影响模型在自然语言处理任务方面的表现,这对于研究大脑中的语言理解具有显著意义。
Oct, 2019
利用深度语言模型与人脑之间的相似性,以模型为基础的方法成功地复制了一项神经元相关语言研究,比较了听取常规和乱序叙述的七名受试者的功能磁共振成像,并进一步扩展和精确到305名听取4.1小时叙述故事的个体的脑信号,从而为大规模且灵活地分析语言的神经基础铺平了道路。
Oct, 2021
本文探讨了使用神经语言模型对大脑活动进行研究的方法,主要研究了测试损失、训练语料库和模型架构对捕捉大脑活动的影响,并提出了未来研究的良好实践建议。
Jul, 2022
本文探讨使用众多的文本数据训练出来的预训练语言机器,对人脑语言理解的预测能力。研究发现,这两者之间的相似性是由下个词的预测机制引起的。作者的实验发现,对机器的语料库进行特定的自然文本刺激文本预测下个词,可以显著提高他们与大脑记录的对齐程度。然而,他们指出与大脑记录对齐的提高不仅仅是由于词汇级别或多词级别语义的改善,他们通过调整词序进一步证实这一点。
Dec, 2022
本论文探讨了语言模型和大脑之间语言处理的关系,指出语言模型中特定的语言学信息对大脑对语言刺激的反应有显著的影响,并提供了新的方法来揭示两个系统之间的信息处理.
Dec, 2022
比较神经语言模型和心理可信模型,发现心理可信模型在多种多样的背景下(包括多模态数据集、不同语言等)表现更优,尤其是在融合具象信息的心理可信模型中,对单词和段落层面的大脑活动预测表现最佳。
Apr, 2024
通过研究大型语言模型,该论文揭示了语言模型与人类大脑的相似性,重点分析了架构组件中的分词策略和多头注意力以及需求确定性的关键因素,最终提出了一种高度与人类大脑和行为对齐的模型。
Jun, 2024