使用连续时间分析,我们对 Gated recurrent units (GRUs) 的内部运作获得了直观的理解。我们发现了一些意想不到的动态特征,同时我们无法训练 GRU 网络产生连续的吸引子,这也是生物神经网络存在的假设。
Jun, 2019
该研究提出了一种基于深度卷积神经网络和分层递归神经网络的图像分类模型,以更好地编码图像区域之间的空间和比例依赖关系,从而取得了在四个具有挑战性的目标 / 场景图像分类基准测试中最先进的结果。
Sep, 2015
本文提出了一种简化的 Gated Recurrent Units 架构,用于语音识别。通过去除重置门和引入 ReLU 激活函数,我们的实现在训练时间上提高了 30%以上,并在不同任务、输入特征和噪声条件下获得了相对于标准 GRU 持续改善的识别性能。
Sep, 2017
本文提出了一种神经网络 shuttleNet,可以结合 CNN-RNN 框架来进行更有效的序列学习,其特点在于运用了循环反馈连接和注意力机制来模拟神经系统中的信息流动。
Nov, 2016
通过引入前馈卷积神经网络与反馈式局部循环连接设计,提高图像识别准确性,更加贴近灵长类动物视觉系统的神经活动,为当代物体识别任务的研究提供了新的思路。
Jun, 2018
提出了一种具有遗忘门的分层门控递归神经网络 (HGRN) 模型,其中遗忘门受可学习值下界限制,使得上层能够建模长期依赖,而下层能够建模更局部、短期的依赖关系。通过在语言建模、图像分类和长距离竞技场测试中进行实验,证明了该模型的高效性和有效性。
Nov, 2023
使用门控循环单元递归网络学习视频的感知特征,从深度卷积网络的各个层级提取感知特征,包括高级和低级特征,结合前者的特殊信息和后者的空间信息,使用改进的 GRU 模型控制模型参数的数量,并在人类动作识别和视频字幕生成任务中证明其有效性。
Nov, 2015
本文使用可视化技术研究了 LSTM 和 GRU 在语音识别任务中的行为,并提出两种简单而有效的网络结构修改:LSTM 中的懒惰单元更新和残差学习的快捷连接。两种修改都使得网络更加易于理解和强大。
Sep, 2016
本文提出了一种基于递归神经网络(RNN)的新模型,它结合了单元 RNN 的记忆能力和门控 RNN 的遗忘冗余 / 无关信息的能力,并通过引入栅门机制扩展了单元 RNN。该模型能够在多项长期依赖基准任务上优于 LSTMs、GRUs 和单元 RNNs,并在多个自然顺序任务中提供有竞争力的结果,包括 bAbI 问题回答、TIMIT 音频预测、Penn TreeBank 和长期依赖的合成任务,如算法、括号、去噪和复制任务。
Jun, 2017
本研究探索了双向的神经网络结构和基于顶部反馈的推理方式,通过将神经元作为具有二次能量函数的整流潜变量,它可以被视为分层整流高尔基模型,并展示了其在具有挑战性的关键点本地化任务上的领先表现。
Jul, 2015