建模分层结构的重要性与循环神经网络
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文通过分析两个合成数据集来研究 RNNs 在处理长期依赖问题时的信息存储方法,并阐明了几种不同类型信息在 RNNs 中如何存储,这同时解释了最近采用的指定初始化或转移矩阵约束的方法的成功。
Feb, 2016
本文研究了深度神经网络的层次结构特征,发现递归神经网络与前馈网络在提取特征和处理深层次信息方面表现出类似的表现和性能优越,且递归模型能够模拟前馈模型的行为并使用更少的参数来实现图像分类和迷宫问题的求解。
Feb, 2021
本文提出 Continuous Recursive Neural Network (CRvNN) 作为递归神经网络(RvNN)的可替换方案,以解决传统 RvNN 在处理序列中诱导潜在结构方面的局限性,并通过在潜在结构中引入连续松弛来改进该方案,从而在逻辑推理和自然语言处理等多项任务中取得了显著表现。
Jun, 2021
神经网络可以划分为两种广义类别,递归和非递归。本文认为这两种神经网络类型之间存在比通常意识到的更为密切的关系,并阐述了其中的迭代映射关系。这种关系不仅限于理论上的 Turing 完全性,更涉及神经网络的训练和实践等方面的深入洞察。
Apr, 2024
通过比较基于循环神经网络和 Transformer 架构的语言模型在人类语言处理方面的能力,本文揭示了 Transformer 在解释自定步调阅读时间和阅读过程中神经活动方面优于 RNN,并挑战了人类句子处理涉及循环和即时处理的普遍理念,并提供了线索检索的证据
May, 2020
本文比较了基于语法树递归生成表征的递归神经模型与基于序列生成表征的循环神经模型(包括简单循环和 LSTM 模型)在情感分类、问答匹配、话语解析和语义关系提取等 4 个任务上的效果,并提出一种将长句子分解为类从句单元再分别处理的方法以提高循环模型的性能。研究结果表明递归模型在头词之间相隔较远、序列较长的任务上可优于循环模型,同时也揭示了两类模型的局限性以及未来改进方向。
Feb, 2015
本研究提出了一种新型神经网络结构,更好地建模序列数据的长期依赖性,称之为 higher order RNNs,实验结果表明,比常规 RNNs 和 LSTMs 性能都要好,适用于各种序列模型任务。
Apr, 2016