Oct, 2019

诱导自然语言处理模型中的大脑相关偏倚

TL;DR本研究证明对BERT模型进行微调,可提高其对人们阅读文本时脑活动的预测能力,模型学习到的语言与脑活动之间的关系可以跨越多个参与者,同时不影响模型在自然语言处理任务方面的表现,这对于研究大脑中的语言理解具有显著意义。