使用非确定性堆栈 RNN 学习无上下文语言
通过给循环神经网络增加非确定性堆栈数据结构,可以扩展循环神经网络的语言识别能力,识别上下文无关语言和更多的非上下文无关语言,同时提高信息容量,这可以通过模拟向量堆栈来实现。
Oct, 2022
本论文提出了将非确定性栈结构引入神经网络,通过可微分的数据结构实现非确定性下推自动机并将其融入循环神经网络和 Transformer 网络,从而提高其语法上下文无关语种的识别能力,并在自然语言建模方面进行了实证研究,并取得了不错的效果。
Apr, 2023
本文介绍了一种基于 PDA 的不确定状态堆栈循环神经网络(NS-RNN)模型,它使用不同 iable stacks,以提高自然语言处理的性能,并提出了一个限制版本的 NS-RNN,以便处理无限长的序列。该模型在五个上下文无关语言建模任务中实现了更低的交叉熵,包括 Penn Treebank 上的一个任务。
Sep, 2021
分析了增加堆栈功能的 RNN 模型的行为,研究它们在多个任务中的表现,并发现这些模型可以通过发现直观的基于堆栈的策略来解决这些任务。但是,与 LSTMs 等经典架构相比,堆栈 RNNs 更难训练,并且更复杂的网络通常会将栈用作非结构化内存来找到近似解。
Sep, 2018
本研究讨论了一种利用外部栈内存扩展循环神经网络处理能力的方法,即神经网络下推自动机(NNPDA),并详细介绍了它的构建、训练和从训练网络中提取象征信息的能力。通过样本字符串的训练,可以提取出离散下推自动机(PDA),能够准确地识别未知来源语法的任意长度的字符串,并且与原始语法的 PDA 相同或等价。
Nov, 2017
循环神经网络(RNNs)作为语言模型(LMs)的经验成功可能与其能够有效地表示人类语言中的有界分层结构有关,并且可以推广其构造以表示更大类别的 LMs,即可以用带有边界堆栈和广义堆栈更新函数的推挤自动机来表示。然而,RNNs 在表示多样化的非分层 LM 类别时的效率表明其缺乏具体的认知和以人类语言为中心的归纳偏见。
Feb, 2024
本文介绍了一种非常简单的门控循环神经网络,其在基于单词的语言建模任务上实现了与 LSTM 和 GRU 等著名门控架构相媲美的性能且证明了该模型具有简单、可预测和非混沌的动力学,这与传统的门控架构形成了鲜明对比。
Dec, 2016
本文研究了 RNN 语言模型对概率分布的表示能力,发现简单的 RNN 等效于概率有限状态自动机,能够表示有限状态模型可表达的概率分布的严格子集,同时研究了用 RNN 表示确定性有限状态语言模型的空间复杂度。这些结果对于了解 RNN 语言模型的能力和限制具有重要意义。
Oct, 2023
该文提出了一种新的序列到序列神经网络控制结构 —— 堆栈 LSTM,用于学习过渡式依赖解析器的解析状态,将其应用于解析模型中,实现了解析器状态的三个方面,提高了解析性能。
May, 2015