薛定谔树 -- 论语法与神经语言模型
本文探讨了语言图表示在理论上能否 complement 并提高神经语言建模的能力。通过集成一个预训练的 Transformer 和七种不同形式主义的 ground-truth 图,研究发现,总体而言,语义组成结构对于语言建模的性能最有用,超越了句法组成结构以及句法和语义依存关系结构。此外,这种效应在不同的词性类别中差异很大。总之,我们的研究结果为神经符号语言建模带来了有前途的倾向,并邀请未来研究 quantifying 不同形式主义所做的设计选择。
Dec, 2021
研究最近聚焦于神经语言模型的成功因素,测试方法学、n-gram 模型以及 LSTM 模型等方式都被用来验证其句法表达的能力,本论文重现了最近论文的实验结果,显示了以字符串为基础的句法诱导训练的基本问题。
Apr, 2020
本文研究了预训练模型在通用语言中层次化句法功能的作用,通过诊断语法转换任务来诊断预训练参数的归纳偏差,结果表明,模型深度对于层次化泛化具有更大的作用,同时,在训练规模方面,使用适当的语料库预训练可以提高效率。
May, 2023
研究深度神经语言模型的可解释性,通过在多种语言模型中应用基于深度句法和表层句法的分析方法,考察其对语法结构的捕获程度以及不同语言间的一致性关系,并发现该语言模型普遍倾向 “Universal Dependencies” 语法形式,并且这种倾向的强度与树形状的差异有关。
Apr, 2020
本文提出了一种新型的神经语言模型 Parsing-Reading-Predict Networks(PRPN),利用其特定的神经网络结构能够自动识别未标注的句子的句法结构,并利用它来学习更好的语言模型。实验证明,该模型能够发现底层的句法结构,并在单词 / 字符水平的语言模型任务上取得了最先进水平。
Nov, 2017
该研究针对最近基于潜在树学习的神经网络模型探索,探索在非解析任务下使用解析值潜变量训练模型,用于发现可解释的树形结构,并成功在语言建模和成分句法分析领域展示了潜在树学习的实用性。
Aug, 2018
我们旨在解释人脑如何将单词连接起来形成句子,通过引入一种新颖的模型来建模句法表示,可能显示出所有自然语言的普遍句法结构的存在,从而提供人类大脑中语言工作方式的基本理解,同时为语言学、心理学和认知科学的理论提供一些见解。我们研究了普遍句法结构的逻辑和建模技术的方法论,试图分析展示不同自然语言(如英语和韩语)中语言过程的普遍性的语料库。最后,我们讨论了关于人类大脑理解方面的关键周期假说、普遍语法以及其他一些语言断言。
Dec, 2023
本研究使用控制的心理语言学实验方法,研究神经网络语言模型对句法状态的递增表示程度,发现 LSTM 序列模型在训练大型数据集时能够对文本中的广泛句法状态进行有效的表示,而对小型数据集的训练效果不如递归神经网络 (RNNG)。
Mar, 2019