一种用于正则文法归纳的神经模型
本研究探讨使用神经网络来识别规则语法,我们训练了一个 RNN 来区分符合正则语言规则的字串与不符合的字串,并利用算法提取学习到的有限自动机,我们发现了关于网络状态之间联系的意想不到结果,这可能被视为泛化的证据。
Oct, 2017
本研究介绍了递归神经网络语法与其使用的高效推理过程,分别应用于句法分析和语言模型,实验结果表明在英文的句法分析和英汉语言模型方面,其效果均优于所有以前发表的有监督生成模型和最先进的序列 RNNs。
Feb, 2016
本研究提出了一种分而治之的迭代投影方法,用于上下文无关文法推断。相对于大多数自然语言处理模型,我们的方法只需要相对较少的离散参数,使得学习到的文法可以直接解释。此外,我们的方法可以从极少的语料中推断出有意义的语法规则。我们演示了几种应用该方法的方式:从头开始分类词汇和推断语法,使用现有文法并细化其类别和规则,以及在遇到新数据中的新词汇时扩展现有的文法词汇。
Jan, 2022
本研究提出了一种基于神经网络的转移句法解析器,利用变分推断、后验正则化和方差减小技术训练模型,实现了无监督依赖语法归纳并在英语 Penn Treebank 和 Universal Dependency Treebank 上取得了可以与基于图的模型相媲美的表现,并且在实验比较中显示出比基于图的模型更快的解析速度。
Nov, 2018
我们研究了一个语法归纳问题的正式化,其将句子建模为由复合概率上下文无关文法生成。与传统的学习单一随机文法的方式不同,我们的文法的规则概率由每个句子的连续潜变量调制,这在传统上下文无关假设以外引出了边际依赖性。这种文法的推理通过折叠变分推理实现,在这种方法中,连续变量上放置平化的变分后验,并通过动态规划边际化潜在树。针对英语和中文的实验表明,与最近的最先进方法相比,我们的方法在无监督语法分析评估时非常有效。
Jun, 2019
该研究针对最近基于潜在树学习的神经网络模型探索,探索在非解析任务下使用解析值潜变量训练模型,用于发现可解释的树形结构,并成功在语言建模和成分句法分析领域展示了潜在树学习的实用性。
Aug, 2018
本文提出了一种基于语料库的概率上下文无关文法识别算法,它采用贪心启发式搜索和一种基于贝叶斯框架的后处理方法,并在三个语言建模任务中与 n-gram 模型和 Inside-Outside 算法进行了比较,结果表明我们的算法在两个任务中,即使用概率上下文无关文法生成的数据上优于另外两种算法,在第三个任务中,我们的算法不如 n-gram 模型,但比 Inside-Outside 算法表现优异。
May, 1995
通过对模型、数据进行改动以及嵌入注意力机制,研究表明 RNNG 模型中显式建模组成部分对于实现最佳性能至关重要;并通过注意力机制发现,头部性在短语表示中起着核心作用,而短语表示与非终结符的依附关系最小化支持了前缀假说。
Nov, 2016
该研究提供一种产生概率语法的框架,通过对正例语料库进行舍选规则加入工作语法,利用贝叶斯后验概率来决定合并元素的时机,从而得到更通用且更紧凑的概率语法模型。本研究运用了三种类型的概率语法模型:隐马尔可夫模型,基于类的 n 元模型,和随机上下文无关文法。
Sep, 1994