本文提出了使用延迟惩罚技巧和最小词错误率训练技术来减少端到端模型延迟以提高其质量的方法,并在语音识别方面展示出重要改进。
Apr, 2020
本研究旨在加入 Listen, Attend and Spell 模型作为第二步流程,从而将端到端流式模型的性能提高至与传统语音识别系统相当,同时也满足计算和响应延迟等约束条件。
Aug, 2019
本文提出了一种基于 RNN-T 模型的识别模型以及 LAS rescorer 模型,不仅在精度上,而且在延迟方面超越了传统模型,并发现 RNN-T+LAS 模型相比于传统模型在精度和延迟之间更好的权衡,例如,在相同的延迟下,RNN-T+LAS 相对识别准确率提高了 8%,模型尺寸也缩小了 400 多倍。
Mar, 2020
本文提出了一种支持流式多语言的端到端自动语音识别的模型,通过编码端点模型和一个适用于语言混合的 End-of-Utterance Joint Layer,以及使用了更高效的 Embedding 解码器,实现了低延迟和高质量的效果,可以在移动设备上实时运行。
Aug, 2022
本文詳細描述了使用遞歸神經網絡轉導器構建端到端語音識別器的努力,該模型可以以流式方式在實時下進行解碼,能夠應對各種需求,能利用特定用戶的上下文信息,並超越基於 CTC 的模型在各評價指標中的性能表現。
Nov, 2018
通过多样化训练数据以及 LSTM 状态操作模拟长形音频,可以增强端到端语音识别模型对未知领域数据的泛化能力。
Oct, 2019
通过引入 “开关” 连接,将语音识别(ASR)和端点探测(EP)训练为单一的端对端(E2E)多任务模型,并利用 ASR 音频编码器的信息来提高 EP 质量,以此来减少延迟并改善连续语音识别的识别率。
Nov, 2022
该研究论文介绍了端到端自动语音识别模型的分类和改进,讨论了它们对传统隐马尔科夫模型的影响,涵盖了模型、训练、解码和外部语言模型集成等各个方面,同时讨论了性能和部署机会以及未来的发展前景。
Mar, 2023
本文提出了一种新颖的两步方法,用于将流式和非流式端到端(E2E)语音识别统一到单个模型中,该模型采用混合 CTC /attention 架构,在编码器的 conformer 层进行修改,并且在推理时,CTC 解码器以流式方式生成 n 个最佳假设,然后通过注意力解码器进行重评分以得到最终结果,并且在 AISHELL-1 测试集上,基于提出的方法的统一模型相对于标准的非流式 transformer,实现了 5.60%的相对字符错误率(CER)降低,在流式 ASR 系统中实现了 640ms 的延迟。
Dec, 2020
本文介绍了一种使用条件向量和针对语言的适配器层结合的多语言端到端模型,取得了比单语言模型和传统模型都更低的语音识别误差率。
Sep, 2019