Jun, 2022

Paraformer:用于非自回归端到端语音识别的快速准确并行 Transformer

TL;DR为了加速端到端语音识别中的推理,本文提出了一个名为 Paraformer 的快速且精确的并行 Transformer,其能够通过利用一种基于连续积分和火的预测器来预测令牌数量并生成隐藏变量,并使用瞥见语言模型(GLM)实现语义嵌入,最后设计了一种策略来生成负采样以进一步提高性能。在多项实验中,Paraformer 能够以超过 10 倍的加速在公共 AISHELL-1、AISHELL-2 基准和工业级 20,000 小时任务中实现与最先进的 AR Transformer 相当的性能。