BriefGPT.xyz
Ask
alpha
关键词
multi-head attention modules
搜索结果 - 1
Squeezeformer:自动语音识别的高效 Transformer
通过重新审视 Conformer 架构的设计选择,我们提出了 Squeezeformer 模型,展示其在同一训练方案下一致优于当前最先进的 ASR 模型,取得了 7.5%,6.5%和 6.0%的字错率(WER)结果,比具有相同数量的 FLO
→
PDF
2 years ago
Prev
Next