本研究调查和提高端到端模型在长篇转录上的性能。实验比较了不同的端到端模型并证明 RNN-T 模型在这种场景下比注意力模型更加鲁棒,并且使用限制注意力单调性和分段解码算法等两种改进方法,将注意力模型的性能极大提升,达到了和 RNN-T 模型相当的水平。
Nov, 2019
该研究论文介绍了端到端自动语音识别模型的分类和改进,讨论了它们对传统隐马尔科夫模型的影响,涵盖了模型、训练、解码和外部语言模型集成等各个方面,同时讨论了性能和部署机会以及未来的发展前景。
Mar, 2023
本文介绍了一种使用条件向量和针对语言的适配器层结合的多语言端到端模型,取得了比单语言模型和传统模型都更低的语音识别误差率。
Sep, 2019
利用预训练语音表示模型与大型语言模型(LLM)的集成,通过以语音表示作为语音提示,自动逐步生成文本标记,以利用 LLM 提供的广博知识,从而实现端到端的自动语音识别(ASR)模型,该模型还可结合推理优化和参数高效领域适应等关键技术,实现与现代端到端 ASR 模型相媲美的性能。
Dec, 2023
本文提出了一种多任务联合训练的端到端语音理解模型 “Audio-Text All-Task (AT-AT) Model”,该模型能够同时训练语音转文字、语音理解和文本理解任务,不仅可以在多个数据集上实现最优性能,还可用于零 - shot 端到端语音理解任务。
Dec, 2020
比较了两种方法来训练具有有限数量的丰富标签数据的无状态变换器的端到端联合丰富和规范自动语音识别系统,其中第一种方法使用语言模型生成规范化训练数据的伪丰富转录,第二种方法使用单个解码器以输出类型为条件。第一种方法提供了更好的外域数据性能,相对误差减少了 9%。第二种方法展示了使用低至 5% 丰富训练数据的端到端联合丰富和规范自动语音识别系统的可行性,误差增加了 2.42% 绝对值。
Nov, 2023
本文提出了一种新的文本表示和训练框架,用于对端到端自动语音识别模型进行内部语言模型(LM)的有效适应,仅使用新域的文本数据。实验表明这种方法能够显著提高模型的准确性并适用于不同的数据集。
Feb, 2022
本文提出了一个多阶段训练策略, 包括数据增强,编码器冻结和参数正则化,并利用人工合成音频提高医疗用途语音识别(ASR)的识别性能,降低了生产数据的成本和依赖性。
Jun, 2021
本文提出了一种方法,通过从大规模语言模型的嵌入向量获取语义知识来缓解需要耗费大量成本的转录训练的问题,并扩展了注意力机制的解码器和神经音响模式的解码器,以实现错误率的降低。
通过引入 “开关” 连接,将语音识别(ASR)和端点探测(EP)训练为单一的端对端(E2E)多任务模型,并利用 ASR 音频编码器的信息来提高 EP 质量,以此来减少延迟并改善连续语音识别的识别率。
Nov, 2022