本文研究嵌入式系统中小型深度神经网络的训练方法,提出了一种使用递归神经网络进行知识转移的方法,并通过 Kullback-Leibler 散度最小化来训练小型深度神经网络,结果显示相较于基线结果提高了 13% 的识别准确率。
Apr, 2015
本文研究了将深度网络的多层表示与强大的 RNN 模型相结合的模型 - 深度递归神经网络,通过合适的正则化和端到端的训练方法,该模型在 TIMIT 语音识别基准测试中获得了最佳记录得分 17.7%。
Mar, 2013
本文研究使用递归神经网络(RNN)对学生学习过程中的知识建模,结果显示神经网络能够提高预测性能,可用于智能课程设计和发现学生任务结构的解释与发现。
Jun, 2015
本文提出了一种生成式知识迁移的技术,使用以前训练的基于 RNN 的语言模型 (RNN 学生网络) 生成的文本和输出概率来训练一个新的语言模型。我们还可以通过使用多个教师网络的软标签组合来提高性能,从而适用于隐私意识的语言模型自适应,因为不会直接使用用户数据进行训练。特别是,当多个设备的软标签通过可信的第三方进行聚合时,我们可以期望非常强的隐私保护。
Aug, 2016
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015
本文介绍了一种基于 LSTM 的循环神经网络架构,用于训练大词汇量的语音识别声学模型,与传统的 RNN 和深度神经网络进行了比较。结果表明,LSTM 模型收敛速度快,对于相对较小的模型具有最先进的语音识别表现。
Feb, 2014
本文介绍了一种用于解决长期依赖的神经网络结构 —— 循环神经网络,并通过对语言建模等实验得出其同 LSTM 网络有着类似的性能表现。
Dec, 2014
探究深度循环神经网络的迁移学习,使用预训练的 RNN 对多变量临床时间序列进行建模,提取通用特征来建立新的任务分类器。结果表明,相比于特定任务的 RNN,使用预训练模型的特征更加稳健且通用,性能更好。
Jul, 2018
本研究对基于双向长短时记忆(LSTM)循环神经网络(RNN)的自动语音识别(ASR)进行了全面的研究,探索了深度、大小、优化方法等不同因素的影响,并通过实验分析在 Quaero 语料库上实现了提高词错误率的效果,并比较了不同的培训计算时间。
Jun, 2016
本文提出了一种用于噪声环境下语音自动识别的新型深度循环神经网络模型,结合了深度神经网络和双向长短期记忆网络,在华尔街日报数据集上相较于传统深度神经网络模型提高了近 8%。