本文通过对两种循环神经网络的实验研究,证明了正则正负推理算法是深度神经网络能否表示和学习时间序列中的长期依赖的可靠工具。此外,本文发现在同种实验中简单循环神经网络在最难的实验中表现出色,长短时记忆网络的表现总体上比简单循环神经网络差。
May, 2017
使用字符级语言模型作为可解释的测试平台,本研究分析了 LSTM 的表示、预测和错误类型,并揭示了其提高性能的长程结构依赖性的来源。
Jun, 2015
通过将递归神经网络语言模型连接到概率有限状态自动机,我们重新审视了递归神经网络语言模型的表征能力,并证明具有线性边界精度的递归神经网络语言模型可以表示任意的正则语言模型。
May, 2024
循环神经网络(RNNs)作为语言模型(LMs)的经验成功可能与其能够有效地表示人类语言中的有界分层结构有关,并且可以推广其构造以表示更大类别的 LMs,即可以用带有边界堆栈和广义堆栈更新函数的推挤自动机来表示。然而,RNNs 在表示多样化的非分层 LM 类别时的效率表明其缺乏具体的认知和以人类语言为中心的归纳偏见。
Feb, 2024
本文研究了 RNN 语言模型对概率分布的表示能力,发现简单的 RNN 等效于概率有限状态自动机,能够表示有限状态模型可表达的概率分布的严格子集,同时研究了用 RNN 表示确定性有限状态语言模型的空间复杂度。这些结果对于了解 RNN 语言模型的能力和限制具有重要意义。
Oct, 2023
在进行短程序评估方面,实验评估了 LSTM 在序列到序列范式中的表现和可学习性,并使用课程学习来提高网络性能,结果表明 LSTM 可以以 99% 的准确率训练生成能够计算两个 9 位数字加法的模型。
Oct, 2014
最近的研究表明,在自然语言建模和长期建模方面,线性递归神经网络(LRNN)取得了与 Transformer 相媲美的性能,同时提供了快速的并行训练和恒定的推断成本。通过研究 LRNN 的潜在规则学习能力,我们在理论上分析了一些现有的 LRNN,并发现它们在正则语言上存在一些限制。在分析的基础上,我们提出了一种新的 LRNN 模型,它配备了一个块对角线和输入相关的转移矩阵。实验证明,所提出的模型是唯一能够在正则语言任务(如求和、偶数对和模运算)中进行长度外推的 LRNN 模型。
Sep, 2023
本文介绍了一个新的神经网络架构 Decay RNN,它可以通过模拟神经元的抑制和兴奋连接,更好地学习长期依赖关系,相较于 LSTM 在语言任务上也表现十分出色,这为 RNN 成功建模语言现象所需的归纳偏差提供了一些线索。
May, 2020
本文提出了一种新的循环神经网络体系结构 Recurrent Memory Network(RMN),不仅能够放大循环神经网络的作用,而且有助于我们理解其内部功能并发现数据中的潜在模式。在语言建模和句子完成任务上展示了 RMN 的强大性能。在长句完成挑战中,RMN 的准确性为 69.2%,超过了以前的最新技术水平。
Jan, 2016
本研究探讨递归神经网络在自然语言处理中的应用情况,研究发现虽然这种网络可以实现递增的句法状态,但是并不总是像人类那样进行泛化,并且没有学习到合适的语法依赖配置。
Sep, 2018