May, 2020

基于自注意力和增强记忆的流式 Transformer 声学模型

TL;DR本文提出了一种新颖的增强记忆自注意力机制,用于 Transformer 语音识别中的流式应用,相对于现有的可流式 Transformer 方法,减小了计算量并在 Librispeech 基准测试中实现了超过 15% 的相对误差降低。