BriefGPT.xyz
Ask
alpha
关键词
simplified self-attention (ssan)
搜索结果 - 1
基于 Transformer 的端到端语音识别中简化的自注意力机制
本文提出了一种简化的自我注意力(SSAN)层,用于 Transformer 模型的端到端语音识别任务中,以降低模型复杂度和维护良好性能,并在公共 AISHELL-1、内部 1000 小时和 20000 小时大规模普通话任务上评估了 SSAN
→
PDF
4 years ago
Prev
Next