本文研究了将深度网络的多层表示与强大的RNN模型相结合的模型 - 深度递归神经网络,通过合适的正则化和端到端的训练方法,该模型在TIMIT语音识别基准测试中获得了最佳记录得分17.7%。
Mar, 2013
本文提出了一个循环神经网络架构,利用一个全连接的深度神经网络作为其特征提取器,并采用原始-对偶训练方法进行学习,实现了18.86%的电话识别错误率并优于已有的方法。
Nov, 2013
本文研究嵌入式系统中小型深度神经网络的训练方法,提出了一种使用递归神经网络进行知识转移的方法,并通过 Kullback-Leibler 散度最小化来训练小型深度神经网络,结果显示相较于基线结果提高了13%的识别准确率。
Apr, 2015
本文提出了一种用于噪声环境下语音自动识别的新型深度循环神经网络模型,结合了深度神经网络和双向长短期记忆网络,在华尔街日报数据集上相较于传统深度神经网络模型提高了近8%。
通过将循环神经网络与隐马尔科夫模型相结合,旨在增加其可解释性, 发现LSTM和HMM可以学习互补的文本特征信息。
Jun, 2016
本研究使用循环神经网络传输器(RNN-T)来训练端到端语音识别模型,并探索了不同的模型架构。通过使用字元素(wordpieces),模型的性能进一步得到了提高,最终在语音搜索和语音听写任务上取得了与最新基线相当的成果。
Jan, 2018
该论文介绍了一种用于测试循环神经网络的测试框架,并在现有语音转文字深度学习系统上进行了测试,以提高循环神经网络系统的质量和可靠性。
Dec, 2018
介绍了一种名为testRNN的覆盖率指导测试工具,用于验证和验证LSTM网络。该工具实现了一种基于突变的通用测试用例生成方法,并根据三个新颖的LSTM结构测试覆盖度指标评估网络的鲁棒性。
Jun, 2019
本文中,我们介绍了最近开发的RNN-T模型,它在训练期间具有较小的GPU内存消耗、更好的初始化策略和先进的编码器建模,对Microsoft的6.5万小时的匿名训练数据进行训练后,开发的RNN-T模型优于经过训练良好的混合模型,同时具有更好的识别准确性和更低的延迟。我们进一步研究了如何将RNN-T模型定制为新领域,并比较了几种使用新领域纯文本数据的方法。研究发现,利用特定领域文本生成的文本到语音更新RNN-T的预测和联合网络最有效。
Jul, 2020
本文研究了如何使用少量文本数据来有效地将RNN-transducer模型适应于新的领域,同时保持较好的泛化能力,避免了复杂的解码和外部语言模型需要。同时,本文表明该方法在目标任务的ASR评估中可以提供相对增益10-45%的性能提升,并分享了RNN-transducer预测网络作为语言模型的性能表现等相关见解。
Apr, 2021