May, 2020
基于自注意力和增强记忆的流式 Transformer 声学模型
Streaming Transformer-based Acoustic Models Using Self-attention with Augmented Memory
Chunyang Wu, Yongqiang Wang, Yangyang Shi, Ching-Feng Yeh, Frank Zhang
TL;DR本文提出了一种新颖的增强记忆自注意力机制,用于 Transformer 语音识别中的流式应用,相对于现有的可流式 Transformer 方法,减小了计算量并在 Librispeech 基准测试中实现了超过 15% 的相对误差降低。