May, 2020

基于自注意力和增强记忆的流式Transformer声学模型

TL;DR本文提出了一种新颖的增强记忆自注意力机制,用于Transformer语音识别中的流式应用,相对于现有的可流式Transformer方法,减小了计算量并在Librispeech基准测试中实现了超过15%的相对误差降低。