使用多维循环神经网络 (MDRNN) 与时序分类 (CTC) 的方法来识别图像上的手写文字,并通过引入一维 LSTM 单元的有用和必要属性来提高其稳定性,在 IFN/ENIT 和 Rimes 数据库上比较并展示其在手写字体识别上的提高效果。
Dec, 2014
本文提出了一种用于图像分割的 PyraMiD-LSTM 模型,相较 Convolutional Neural Networks 和 Multi-Dimensional Recurrent NNs 具有更好的数据并行化的能力,并在 MRBrainS13 中实现了最佳像素级别的脑影像分割结果。
Jun, 2015
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文研究了将深度网络的多层表示与强大的 RNN 模型相结合的模型 - 深度递归神经网络,通过合适的正则化和端到端的训练方法,该模型在 TIMIT 语音识别基准测试中获得了最佳记录得分 17.7%。
Mar, 2013
本文研究了使用不同非线性激活函数的循环神经网络(RNNs)的理论效率,表明它们也具有普适性和深度效率的特性,并通过计算实验证实了这一理论结果。
Jan, 2019
本文对循环神经网络的基本原理、最新进展和研究挑战进行了说明,介绍了针对学习长期依赖问题的新进展,适合该领域的新手和专业人士。
Dec, 2017
通过使用 Tensor-Train 分解来分解 RNN 中的高维输入矩阵,尽管架构比其他模型简单得多,但在分类实验中仍能够实现与最先进的模型相媲美的性能,这为建模高维序列数据提供了一种新的基础模块,并打开了从其他领域(如自然语言处理)传输表达和先进模型的多种可能性。
Jul, 2017
提出了一种新的多模态递归神经网络方法 (Multimodal RNNs) 用于 RGB-D 场景语义分割,它同时优化两个递归神经网络模型的训练,各自从自己以及另外一个模型的传递模式中学习特征,以提取相关的跨模态信息特征,实现了在 RGB 和深度图像数据上的显著优化和竞争性结果。
Mar, 2018
本文提出了一种多尺度递归神经网络,称为分层多尺度递归神经网络,通过使用新的更新机制,在不使用显式边界信息的情况下捕获序列中的潜在分层结构,从而解决递归神经网络中的层次和时间表示问题,并在字符级别语言建模和手写序列建模上进行评估。
Sep, 2016
本研究探讨了使用二维 Max 池化和卷积方法来集成时间步维度和特征向量维度上的文本特征,结果显示,在六个文本分类任务中,所提出的模型在四个任务上都达到了非常优秀的性能表现。
Nov, 2016