该论文研究了从语言模型中以无监督方式生成组成和依赖结构的问题,并通过一系列实验表明了其在语法结构识别方面的可行性和存在的限制。
Mar, 2024
本研究通过对语言模型进行先验的结构性偏置,探索了不同感性学习偏差的影响,并研究了三种感性偏差的相对成功:1)递归,分层处理的感性偏差;2)无法通过上下文自由文法建模的无限制令牌 - 令牌依赖的感性偏差;和 3)一个 Zipfian 幂律词汇分布的感性偏差。我们发现,复杂的令牌 - 令牌交互形成了最好的感性偏向,并且在非上下文自由情况下最强。同时,我们还表明,独立于语法结构,Zipfian 词汇分布形成一个良好的感性偏向。
Apr, 2023
研究基于序列的神经网络与基于树的网络在句法任务上的表现,并比较常见的句法表示方法对句法结构带来的影响,同时发现基于组成结构的网络更具鲁棒性,通过少量构建的数据 fine-tune 可以显着提高序列模型的性能,表明数据增强是为序列模型注入句法偏置的可行替代方案。
Apr, 2020
本文研究了预训练模型在通用语言中层次化句法功能的作用,通过诊断语法转换任务来诊断预训练参数的归纳偏差,结果表明,模型深度对于层次化泛化具有更大的作用,同时,在训练规模方面,使用适当的语料库预训练可以提高效率。
May, 2023
研究神经序列到序列模型中的归纳偏差如何影响其推广行为,发现只有采用具有语法结构的树状模型才能保持类人语法推广能力。
Jan, 2020
本文通过探究无监督条件下对成分结构的学习,提出了使用一种技术从堆叠循环神经网络的推送行为中提取句法树,证明堆叠循环神经网络确实推断出了具有语言学相关的层次结构。
Jun, 2019
一项关于基于 Transformer 的语言模型(如 BERT)的研究尝试使用语法归纳偏置来增强预训练过程,理论上通过将语法结构融入训练过程可以降低训练所需的数据量。但此类方法通常在高资源语言(如英语)上进行测试。在这项研究中,我们调查了这些方法是否可以弥补低资源语言中的数据稀疏性,研究假设它们在低资源语言中应该更加有效。我们对五种低资源语言进行了实验:维吾尔语、沃洛夫语、马耳他语、科普特语和古希腊语。我们发现这些语法归纳偏置方法在低资源环境中产生不均匀的结果,并在大多数情况下提供出乎意料的少量益处。
Nov, 2023
本文研究了文本表示学习器在句法表现上的优越性和在自然语言句法中的应用,提出了将句法模型的预测注入 BERT 的知识蒸馏策略,并表明在一系列结构预测任务中,这种方法能够显著地减少相对误差。
May, 2020
该研究提出了一种新颖的方法,使用人造语言验证语言模型的归纳偏见,并发现常用的神经架构在处理语句单词排序方面存在不同的归纳偏差。
Jun, 2021
本文介绍了现代深度神经网络在机器翻译等需要广泛语言技能的工程应用中取得的卓越性能,探讨它们是否从接触的原始数据中引导出类似于人类语法知识的思想,并讨论这些工作对理论语言学的广泛影响。