印地语词序中的双重机制启动效应
我们研究了语言模型预测中在句子和单词级别发挥重要作用的语言因素,并调查这些因素是否反映了人类和人类语料库中的结果。我们利用结构启动范式,其中对结构的最近暴露有助于相同结构的处理。我们不仅调查了引导效果是否发生,还调查了它们发生的位置以及预测它们的因素。我们表明,这些效应可以通过逆频率效应来解释,即在人类引导中众所周知,引导中的较罕见元素增加引导效果,以及引导和目标之间的词汇依赖性。我们的结果为如何理解上下文中的属性如何影响语言模型中的结构预测提供了重要线索。
Jun, 2024
多语言语言模型是否在不同语言之间共享抽象语法表示以及这些抽象语法表示是何时形成的?我们使用结构启动测试进行研究,发现跨语言结构启动效应在第二语言曝光不到 1M 标记的数据后就会早期显现,并讨论了数据污染、低资源转移以及多语言模型中抽象语法表示形成的意义。
Oct, 2023
研究现代神经语言模型在结构启动方面的易感性,探讨如何利用启动来研究这些模型学习抽象结构信息的潜力,引入新度量和发布大型语料库 Prime-LM,发现 Transformer 模型确实显示结构启动的证据,但也显示出它们学习的概括在某种程度上受语义信息的调节,综合实验表明,模型获得的表示不仅编码抽象的连续结构,还涉及某些层次的句法信息。
Sep, 2021
提出了一种新的技术来分析神经语言模型在句法结构敏感性方面的代表性,并证明 LSTM LMs 对于具有关系从句的不同类型的句子的表示是按照语言可解释的层次结构组织的,表明 LMs 跟踪句子的抽象属性。
Sep, 2019
通过层级贝叶斯模型,我们展示了语法启动作用的三个经验现象:词汇增强效应、反频率效应和不对称衰减可以在一个通用的学习框架中得到协调。模型通过贝叶斯推断更新语法知识,其中低层级表示动词特定决策的偏见,高层级表示动词特定偏见的抽象偏见的综合。模拟结果显示,该模型能够捕捉到语法启动作用的上述特性,表明通常由残余激活解释的一些启动作用特性也可以由隐式学习解释。我们还讨论了该模型对语法启动作用的词汇基础的影响。
May, 2024
通过评估循环神经网络(RNN)和 Transformer 在复制跨语言结构启动方面的表现,这项研究对人类语言处理中抽象语法表示的关键指标进行了评估。研究重点关注涉及两种类型不同的语言的中英启动,探讨这些模型如何处理结构启动这一稳定现象,即暴露于特定句子结构会增加之后选择类似结构的可能性。此外,我们还利用大型语言模型(LLM)来衡量跨语言结构启动效果。研究结果表明 Transformer 在生成启动句子结构方面的性能优于 RNN,挑战了人类句子处理主要涉及循环和即时处理的传统观念,同时表明了基于线索的检索机制的作用。总体而言,这项工作对于了解计算模型如何反映多语言环境中人类认知过程具有重要贡献。
May, 2024
该研究通过在不同语言的多语言语言模型和单语 BERT 模型中执行反事实扰动,并观察模型主谓一致概率的效果,发现了受语法一致性影响的神经元的分布情况,语言模型的行为分析可能低估了掩码语言模型对语法信息的敏感性。
Oct, 2022