本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
通过应用局部、始终开启的可塑性规则,我们能够在由两个群体组成的递归网络中学习复杂序列,我们的模型具有资源高效性,仅需少量神经元即可学习复杂序列,我们通过鸟鸣学习的模拟中展示了这些特点,在该模拟中,我们的网络首先学习了一个长的非马尔可夫序列,尽管存在外部干扰,它们能够稳健地复现此序列。
Feb, 2024
本文提出课程学习策略,用于训练循环神经网络,以尽量减小实际工作场景中训练和推理之间的差异,如在 MSCOCO 图片注释挑战赛中实测有效。
Jun, 2015
本文指出,关于促进稀疏性的更强大的贝叶斯算法具有类似于长短期记忆 (LSTM) 网络或先前设计用于序列预测的替代门控反馈网络的结构,从而导致了一种新的稀疏估计系统,当授予训练数据时,可以在其他算法失败的方案中高效地估计最优解,包括在实际方向 - 到达 (DOA) 和三维几何恢复问题中。
Jun, 2017
本文提出了一种神经网络 shuttleNet,可以结合 CNN-RNN 框架来进行更有效的序列学习,其特点在于运用了循环反馈连接和注意力机制来模拟神经系统中的信息流动。
Nov, 2016
本文研究了将深度网络的多层表示与强大的 RNN 模型相结合的模型 - 深度递归神经网络,通过合适的正则化和端到端的训练方法,该模型在 TIMIT 语音识别基准测试中获得了最佳记录得分 17.7%。
Mar, 2013
本文讨论了标准深度学习方法的局限性,并展示了如何通过以结构化方式增加模型的复杂性来克服这些限制,具体地,研究了仅适用于具有计数和记忆序列能力模型的算法生成序列的最简单序列预测问题,证明了可以使用与可训练内存相关的循环网络从序列数据中学习一些基本算法。
Mar, 2015
本文介绍了一种用于解决长期依赖的神经网络结构 —— 循环神经网络,并通过对语言建模等实验得出其同 LSTM 网络有着类似的性能表现。
Dec, 2014
通过实时与合适的自上而下学习信号合并本地可用信息,为循环神经网络提供了高效的学习算法,其中包括了神经形态芯片的在线训练,从而拓宽了大脑中的网络学习理解并在实验中得到了验证。
Jan, 2019
本文提出两种方法用于使用未标记的数据改善序列学习。第一种方法是预测序列中的下一个元素,第二种方法是使用序列自编码器。通过这两种算法的无监督训练,我们可以训练出更稳定且泛化性能更好的长短时记忆网络,并在诸如 IMDB、DBpedia 和 20 Newsgroups 等文本分类任务中获得强大的性能。
Nov, 2015