May, 2022

端到端语音识别的神经表示洞察

TL;DR本文分析了使用 CNN、LSTM 和 Transformer 等网络模型进行端到端自动语音识别模型训练时层之间的内部动态,通过规范相关性分析和中心核对齐,发现 CNN 层内的神经表示随着层深度的增加而表现出层级相关性依赖性,而这种行为在 LSTM 架构中不会观察到,但在 Transformer 编码器层中会出现不规则的系数相关性随神经深度的增加而增加,这些结果提供了神经体系结构对语音识别性能的作用的新见解,可用作构建更好的语音识别模型的指示器。