本研究使用控制的心理语言学实验方法,研究神经网络语言模型对句法状态的递增表示程度,发现 LSTM 序列模型在训练大型数据集时能够对文本中的广泛句法状态进行有效的表示,而对小型数据集的训练效果不如递归神经网络 (RNNG)。
Mar, 2019
提出了一种新的技术来分析神经语言模型在句法结构敏感性方面的代表性,并证明 LSTM LMs 对于具有关系从句的不同类型的句子的表示是按照语言可解释的层次结构组织的,表明 LMs 跟踪句子的抽象属性。
Sep, 2019
本文提出了一种基于探测任务的神经网络模型的韧性度量方法,在通过语言模型中提取出的语言结构上评估了四种大型语言模型的一致性和鲁棒性,并发现神经网络的新兴句法表示具有脆弱性。
Oct, 2022
我们对神经语言模型的句法知识进行了系统评估,发现模型架构的不同对句法泛化性能产生了显著影响,而不同数据集大小的影响相对较低。
May, 2020
该研究提出了使用一个语言模型预测的句子的语法正确性来评估该模型的数据集。实验结果表明,在众多句子变体中,LSTM 语言模型的准确性较差,而使用句法目标的多任务训练可以提高模型的准确性,但模型仍存在较大的进步空间。
Aug, 2018
研究了现代神经语言模型在少量训练下模仿英语句法结构的能力,发现这些模型能够从最少的训练样本中正确识别并推广句法规律,但在接受结构性监督的情况下表现更好。
Oct, 2020
本研究旨在探究神经语言模型是否能够在单线性序列输入的情况下提取层次信息,并通过中心嵌套句子和语法岛约束等自然语言现象的实验研究证明:LSTM 能够识别和利用堆栈数据结构来存储和获取一定数量的语言层次结构。
Jun, 2019
本文回顾了近年来自然语言处理领域的语言模型的发展,并探讨在研究语言模型中基于句法的研究中存在的问题以及解决方案,旨在为未来语言模型的研究提供一种较为多样化和立体化的研究视角。
Oct, 2021
神经语言模型(LM)在许多技术任务上的成功使其潜在相关性作为语言科学理论得以体现,尽管 LM 训练和儿童语言习得之间存在一些明显的差异。本文认为一些用于评估 LM 语法能力的主要基准可能不够严格,并表明基于模板的基准缺乏语言理论和心理学研究中常见的结构多样性。当用小规模数据对儿童语言习得进行建模时,LM 可以轻易地被简单的基准模型匹配。我们提倡使用现成的、经过精心策划的数据集,这些数据集已由大量母语用户进行了梯度可接受性评估,并旨在特别探索语法的结构基础。在这样一种数据集(LI-Adger 数据集)上,LM 在评估句子时与人类语言用户的方式不一致。最后,我们提出了更好地将 LM 与儿童语言习得的实证研究进行联系的建议。
Oct, 2023
本研究分析了神经机器翻译模型在不同粒度上学习到的表示,并通过相关的外围特性对其质量进行评估,结果表明深层次的 NMT 模型学习了大量的语言信息,其中鲜明的发现包括:(i)词组结构和词类等语言单元在模型较低的层次上被捕捉;(ii)而词汇语义或非局部的句法和语义依存则在较高层次上表示更好;(iii)使用字符所学习的表示比使用子词单位所学习的更具有词形信息;(iv)多语言模型所学习的表示比双语模型更加丰富。
Nov, 2019