诱导自然语言处理模型中的大脑相关偏倚
提出了一种新颖的解释方法,利用人脑阅读复杂自然文本时的脑成像记录来解释最新的四个NLP模型——ELMo、USE、BERT和Transformer-XL中的词和序列嵌入,研究它们在层深度、上下文长度和注意类型之间的差异,并推测改变BERT以更好地对齐脑成像记录将使其更好地理解语言。
May, 2019
对比句子编码模型在大脑解码任务上的表现,发现语法轻量级表示能够显著提高脑解码性能,这一结果限制了自然语言理解模型解释人类大脑语言功能的空间,同时也揭示了使用fMRI人脑成像技术解码精细句法信息的局限性。
Oct, 2019
本文探索基于任务特征学习的Transformer模型在基于两个数据集的大脑编码预测中的表现和认知洞察,并发现语法和语义任务在处理阅读和听力刺激时在大脑区域上均具有良好的预测性能。
May, 2022
本文探讨了使用神经语言模型对大脑活动进行研究的方法,主要研究了测试损失、训练语料库和模型架构对捕捉大脑活动的影响,并提出了未来研究的良好实践建议。
Jul, 2022
本研究旨在解决通过构建细粒度的NLP模型与具有功能性的fMRI数据捕捉大脑活动进行相互关联的问题,从而在将来提供有关NLP模型的神经启示。
Mar, 2023
通过比较prompt-tuning和fine-tuning的表示,在神经解码方面,我们发现对于10个自然语言理解任务,prompt-tuning优于fine-tuning,表明更符合大脑的调节方法获得的表征与脑部数据更相关。此外,我们发现与其他任务相比,处理细粒度概念意义的任务在解码大脑激活模式方面表现更好,尤其是句法分块任务,这表明在表示语言时,我们的大脑编码了更多细粒度的概念信息而不仅仅是浅层句法信息。
Oct, 2023
我们通过研究任务调整如何影响预训练的Transformer用于神经编码,并确定了对大脑激活模式有最高预测能力的任务类型,展示了通过prompt-tuning生成的监督表示比传统的微调在四个任务上更好地预测对中文刺激的神经反应。此外,我们还揭示了经过微调的模型的调整参数比例对神经编码性能的影响。总体而言,我们的实验结果有助于更好地理解监督人工和脑语言表示之间的关系。
Oct, 2023
文本和语音语言模型能够准确预测脑部活动,但是消除特定的低级刺激特征后发现语音模型失去了对大脑的预测能力,进一步研究显示语音模型需要改进以更好地反映大脑的语言处理。
Nov, 2023
比较神经语言模型和心理可信模型,发现心理可信模型在多种多样的背景下(包括多模态数据集、不同语言等)表现更优,尤其是在融合具象信息的心理可信模型中,对单词和段落层面的大脑活动预测表现最佳。
Apr, 2024