多通道 Transformer Transducer 语音识别
本文介绍了如何将神经转录器引入流式端到端语音翻译(ST)中,提出了基于注意力池化的 Transformer transducer(TT)模型以及在多语言 ST 中的应用,结果表明 TT 模型不仅显著减少了推理时间,而且在英德翻译上优于基于 ASR 和 MT 的非流式级联 ST。
Apr, 2022
本文介绍了一种基于 Transform-XL 的可流式 Transformer-Transducer 模型的应用,用于语音识别中的低延迟且快速编码,比混合模型、RNN-Transducer 和流式 Transformer - 基于注意力的编码器 - 解码器模型具有更好的性能。
Oct, 2020
本研究设计了 Conv-Transformer Transducer 架构,在 LibriSpeech 数据集上实现了较强的流式语音识别性能,该架构适用于流式 ASR,且相较于以前发布的 Transformer Transducer 和强混合流式 ASR 系统,拥有更小的前向窗口、更少的参数和更低的帧率。
Aug, 2020
本文研究使用 Transformer 模型替代基于循环神经网络的编码器 - 解码器模型,应用于多说话者语音识别和神经束形成器中的遮盖网络,得以有效处理混响信号,并加入外部去混响预处理方法进行对比试验。实验证明,在单通道和多通道任务下,基于 Transformer 的模型相对错误率降低达 40.9% 和 25.6%,在混响环境中的相对错误率降低达 41.5% 和 13.8%。
Feb, 2020
本文研究了使用 Transformer 网络来实现端到端语音识别,提出使用 VGGNet 结合因果卷积来降低计算复杂度,同时使用截断的自注意力机制来实现流式处理。在公共数据集 LibriSpeech 上进行实验,该方法相比于基于 LSTM/BLSTM 的神经输入转换器,获得了更好的识别效果,并实现了流式处理。
Oct, 2019
本论文探讨了 transformer-RNN-transducer 系统的多任务学习、联合优化和联合解码方法,证明了这些方法能够有效地降低字词错误率,从而保持大型文本语料库的信息。
Nov, 2020
该论文提出了一种端到端的语音识别模型,使用 Transformer 编码器可用于流媒体语音识别系统;该模型在 LibriSpeech 数据集上进行了实验结果,结果表明限制 Transformer 层中自注意力左侧上下文对于流式解码是可行的,并展示了我们的全注意力模型在 LibriSpeech 基准测试上的准确性优于现有技术水平。
Feb, 2020
本文介绍了一种基于上下文的自动语音识别系统:context-aware transformer transducer (CATT) 网络,通过多头注意力机制、编码上下文数据和使用 BERT 等技术方法,取得了比基线 transformer transducer 和现有深度上下文模型分别提高了 24.2% 和 19.4% 的词错误率性能提升。
Nov, 2021
我们提出了一种端到端的多通道说话人归属自动语音识别系统(MC-SA-ASR),它将基于 Conformer 的编码器与多帧跨通道注意力和基于说话人归属的 Transformer 解码器相结合。据我们所知,这是第一个在多通道环境中高效集成 ASR 和说话人识别模块的模型。在 LibriSpeech 数据的模拟混合语音中,与之前提出的单通道和多通道方法相比,我们的系统将词错误率(WER)相对降低了 12% 和 16%。此外,我们还研究了不同输入特征(包括多通道幅度和相位信息)对 ASR 性能的影响。最后,我们在 AMI 语料库上对我们的系统进行了实验,确认了我们系统在真实多通道会议转录中的有效性。
Oct, 2023
本文提出了一种针对实时应用场景的端到端增强记忆 Transformer 编码器,成功地应用于流式同声传译任务,可以处理大量连续输入,相较于单向掩码 Transformer 模型,具有更好的延迟和质量平衡。
Oct, 2020