该论文介绍利用深度 LSTM 循环神经网络、CD 电话建模、帧叠加与减少帧率等技术来提高语音识别准确率的研究,并探讨了直接输出单词的 LSTM RNN 模型的初步结果。
Jul, 2015
本文介绍了一种基于 LSTM 的循环神经网络架构,用于训练大词汇量的语音识别声学模型,与传统的 RNN 和深度神经网络进行了比较。结果表明,LSTM 模型收敛速度快,对于相对较小的模型具有最先进的语音识别表现。
Feb, 2014
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文提出将 CNN 与 CTC 相结合的端到端语音识别框架,以实现序列标记;在 TIMIT 音素识别任务中评估该方法并表明其在计算效率和性能上优于已有基线系统,并指出 CNN 具有利用适当上下文信息来建模时间相关性的能力。
Jan, 2017
本研究针对多 GPU 设备下,探讨了基于深度 LSTM 的语音识别任务,通过构建深度循环神经网络来提升深层次模型效率,实验结果表明深度 LSTM 网络的性能优于浅层次模型。
Oct, 2014
研究比较深度卷积网络和带有循环结构的深度卷积神经网络的效果,针对视频识别、图像描述、检索以及视频叙事方面的问题,开发出一种新颖的循环卷积架构,该架构可以训练端到端,可以同时学习时间动态和卷积感知表示,并具有学习长期依赖性的能力。实验结果证明,循环卷积模型在识别或生成方面与现有的模型相比具有明显的优势。
Nov, 2014
使用深度神经网络作为教师模型,通过知识迁移学习的方法,成功地训练了长短时记忆神经网络,以在自动语音识别任务中表现良好。
本文研究了基于循环神经网络(RNN)的提及检测系统的鲁棒性及其在信息提取中的应用,表明在英语的普通或跨领域的情况下,RNNs 不仅在通用情况下优于之前报告的最佳系统(最多可达 9%的相对错误降低),而且在荷兰语中表现出的命名实体识别相似任务中,RNNs 比传统方法显著优越(最多可达 22%的相对错误降低)。
Feb, 2016
本文对循环神经网络的基本原理、最新进展和研究挑战进行了说明,介绍了针对学习长期依赖问题的新进展,适合该领域的新手和专业人士。
Dec, 2017
本文提出了一种用于噪声环境下语音自动识别的新型深度循环神经网络模型,结合了深度神经网络和双向长短期记忆网络,在华尔街日报数据集上相较于传统深度神经网络模型提高了近 8%。
Apr, 2015