利用 fMRI 数据的大脑预测编码进行语言重建
对比句子编码模型在大脑解码任务上的表现,发现语法轻量级表示能够显著提高脑解码性能,这一结果限制了自然语言理解模型解释人类大脑语言功能的空间,同时也揭示了使用 fMRI 人脑成像技术解码精细句法信息的局限性。
Oct, 2019
基于自注意力机制的大型语言模型在语言处理和自然语言本身中取得了惊人的成绩,并且在不同性质的各种任务中也取得了成绩。本文在预测编码框架内提出了一个平均场学习模型,成功地验证了其在分类手写数字和玩具以及真实语言语料库中的有效性。因此,我们的模型为研究语言处理和意想不到的普遍智能的物理和生物对应关系提供了一个起点。
Sep, 2023
模拟了从计算模型中提取的表示进行的分析揭示了与大脑信号相似的时间动态,这表明这些特性可以在没有语言知识的情况下出现。此外,研究证明,声素的编码模式支持一定程度的跨语境概括,但我们发现这种概括的有效性取决于具体的语境,这表明单独的分析不足以支持存在语境无关编码。
May, 2024
本文探索基于任务特征学习的 Transformer 模型在基于两个数据集的大脑编码预测中的表现和认知洞察,并发现语法和语义任务在处理阅读和听力刺激时在大脑区域上均具有良好的预测性能。
May, 2022
研究通过功能性磁共振成像对大脑的记录,分析了编码模型和解码模型的应用,尤其关注深度学习算法的效果、好处和限制,并总结了神经科学数据集的代表性研究。
Jul, 2023
使用 CoCa 模型,本文提出了一种简单而有效的生成框架 BrainChat,旨在从脑活动中快速实现语义信息解码任务,包括 fMRI 问题回答和 fMRI 字幕生成,通过编码稀疏的 fMRI 数据,利用对比损失将 fMRI、图像和文本嵌入对齐,然后通过交叉注意层将 fMRI 嵌入映射到生成的脑解码器,以最小化字幕损失的方式以回归的方式生成有关 fMRI 的文本内容。成功地超过了现有状态 - of-the-art 方法在 fMRI 字幕生成任务中,并首次实现了 fMRI 问题回答。此外,BrainChat 在没有图像数据的情况下仍可以实现高性能,更适用于现实世界的数据有限场景。
Jun, 2024
本研究证明对 BERT 模型进行微调,可提高其对人们阅读文本时脑活动的预测能力,模型学习到的语言与脑活动之间的关系可以跨越多个参与者,同时不影响模型在自然语言处理任务方面的表现,这对于研究大脑中的语言理解具有显著意义。
Oct, 2019
该论文提供了对预测编码理论的全面评估,包括其核心数学结构和逻辑以及在神经科学领域的实现和应用。该理论适用于皮层功能的统一解释,主张大脑的核心功能是通过一个世界的生成模型来减少与预测误差。
Jul, 2021
通过对大量受试者进行对比学习,使用自我监督方法设计的神经网络可以从无创脑电图数据中有效识别自由自然语言,为实现从脑电图中实时解码自然语音处理提供了有前途的途径。
Aug, 2022
在该论文中,我们首次探索了基于跨注意力的 “whisper” 模型,通过 MEG 信号直接生成文本,而无需教师强制,实现了令人印象深刻的 60.30 和 52.89 的 BLEU-1 得分,该论文还对有关神经解码任务的语音解码形成进行了全面的回顾。
Mar, 2024