意外度能如何解释在不同实验条件下的 N400 振幅?
该文提出了一个基于信息理论的人类语言处理模型,观点是内在的语言输入在启发式解释和错误校正的两个层次上处理,由此提出两种信息处理的脑电信号(N400 和 P600)和由现代自然语言处理技术获得的 surprisal 量。该理论通过成功模拟实验证据,可以为传统的认知理论提供精确的信息理论解释。
Dec, 2022
本文研究使用词汇惊奇度作为特征,以帮助语音合成韵律。研究通过实验发现,惊奇度和词重要性有适度关联,但使用惊奇度值来调整韵律模型的效果有限。
Jun, 2023
研究视觉信息(即看到发言者)对口语理解的影响,比较了同一言语刺激的仅音频和音频 - 视觉呈现方式下相关联的 ERP 签名(N400),证明在多模态和单模态情况下认知努力存在显著差异,并指出在多模态环境下局部词汇环境对认知处理的巨大影响。
Jul, 2023
通过对 11 种不同语言进行研究,我们发现惊奇理论与阅读时间之间存在跨语言的联系,验证了三个预测:惊奇度是否预测阅读时间、预期惊奇度是否预测阅读时间、以及惊奇度与阅读时间之间的联系是否是线性的,从而在更多语言上提供了信息论与递增语言处理之间至今最强大的连接。
Jul, 2023
本文介绍了基于贝叶斯层级模型的方法,应用于神经和行为数据分析,特别是应用于事件相关电位 (ERP),并通过一个以单词惊奇值和神经响应为例的实验数据进行了模拟和解释。
Jul, 2022
通过概率校准的概念,本文首次关注人类阅读模拟的概率分布,提出使用温度调整的意外度作为预测人类阅读时间的指标,通过三个数据集的实验证明这种意外度可以显著提高阅读时间的预测,在本文的设置中,将温度设置为大约 2.5 可使对数似然度增加 89%。同时,本文还提出了一个校准度量指标来量化可能的人类偏好偏差,并进行了进一步分析以提供相关洞察。
Nov, 2023
通过整合语言用户的认知能力信息,重新评估了从多种语言模型中估计出的意外性和熵的预测能力,以读时数据作为对处理工作的度量,研究发现大多数情况下,整合认知能力提高了意外性和熵对读时的预测能力,并且研究结果表明分析的语言模型模拟了具有较低语言智力的读者,对具有高语言智力的目标群体的预测估计较不准确。
Jun, 2024
本文研究了基于 Transformer 的语言模型中,各种训练数据和不同容量的模型对于预测人类阅读时间的作用,并发现多数具有当代模型能力的变体,使用约 20 亿个训练标记后,所给出的 surprisal estimates 提供了最佳适合度,而较大的预先训练语言模型的较差适合度主要归咎于大量的训练数据,而 transformer-based 语言模型的某种程度的模型容量对于模型要捕捉类似于人类的期望是必要的。
Apr, 2023
研究发现,人类认知塑造了语言的演变和使用,600 种语言的语料库证实了超出和内部有惊讶 - 持续时间权衡的存在,结果是在不同语言中,更少惊讶的音位生成速度更快,反之亦然,并且确认了 319 种语言中更惊讶的音位平均更长。
Sep, 2021