基于认知动机的解析器生成结构启动预测
研究现代神经语言模型在结构启动方面的易感性,探讨如何利用启动来研究这些模型学习抽象结构信息的潜力,引入新度量和发布大型语料库 Prime-LM,发现 Transformer 模型确实显示结构启动的证据,但也显示出它们学习的概括在某种程度上受语义信息的调节,综合实验表明,模型获得的表示不仅编码抽象的连续结构,还涉及某些层次的句法信息。
Sep, 2021
我们研究了语言模型预测中在句子和单词级别发挥重要作用的语言因素,并调查这些因素是否反映了人类和人类语料库中的结果。我们利用结构启动范式,其中对结构的最近暴露有助于相同结构的处理。我们不仅调查了引导效果是否发生,还调查了它们发生的位置以及预测它们的因素。我们表明,这些效应可以通过逆频率效应来解释,即在人类引导中众所周知,引导中的较罕见元素增加引导效果,以及引导和目标之间的词汇依赖性。我们的结果为如何理解上下文中的属性如何影响语言模型中的结构预测提供了重要线索。
Jun, 2024
提出了一种新的技术来分析神经语言模型在句法结构敏感性方面的代表性,并证明 LSTM LMs 对于具有关系从句的不同类型的句子的表示是按照语言可解释的层次结构组织的,表明 LMs 跟踪句子的抽象属性。
Sep, 2019
通过使用 Tagging 模型,对预先训练好的语言模型的输入序列增加预处理,从而提高关联结构提取的精度,并在多语言数据集上进行了广泛的实验及分析,并提出了一种快速且准确的近似方法
May, 2022
本文从语法分析的角度出发,通过探索不同的句法分析方法和语法特征对大脑语言网络的影响,以及与语义信息的关系,研究了其对大脑活动的预测能力,发现不同的语法分析方法在大脑不同区域的编码效果不同,而语法信息和语义信息的结合能够更好地预测大脑活动。
Feb, 2023
多语言语言模型是否在不同语言之间共享抽象语法表示以及这些抽象语法表示是何时形成的?我们使用结构启动测试进行研究,发现跨语言结构启动效应在第二语言曝光不到 1M 标记的数据后就会早期显现,并讨论了数据污染、低资源转移以及多语言模型中抽象语法表示形成的意义。
Oct, 2023
通过评估循环神经网络(RNN)和 Transformer 在复制跨语言结构启动方面的表现,这项研究对人类语言处理中抽象语法表示的关键指标进行了评估。研究重点关注涉及两种类型不同的语言的中英启动,探讨这些模型如何处理结构启动这一稳定现象,即暴露于特定句子结构会增加之后选择类似结构的可能性。此外,我们还利用大型语言模型(LLM)来衡量跨语言结构启动效果。研究结果表明 Transformer 在生成启动句子结构方面的性能优于 RNN,挑战了人类句子处理主要涉及循环和即时处理的传统观念,同时表明了基于线索的检索机制的作用。总体而言,这项工作对于了解计算模型如何反映多语言环境中人类认知过程具有重要贡献。
May, 2024
本文使用 Hindi 语料库和适应性神经语言模型,模拟词汇和语言结构的启动作用,并通过对预先构建的语料与人工生成的语料在句子成分上的差异进行逻辑回归分析,发现不同的启动机制独立并互补地作用于动词类别。
Oct, 2022
研究心理语言学,探讨语言预测的影响因素和如何构建计算模型,发现常识知识显著提高模型预测准确性;其次,测试可预测性是否影响指代表达式类型,但未发现任何证据支持该假设。
Feb, 2017