ICMLJul, 2022

Branchformer: 并行 MLP-Attention 结构用于语音识别和理解中的局部和全局上下文抓取

TL;DR本文章提出一种基于自注意力机制和 MLP 模块的可定制语音转录模型 Branchformer,其可以同时提取全局和局部依赖关系,并且在多项基准测试上均胜过了 Transformer 和 cgMLP,与 Conformer 的表现相当。此外,该模型具有双分支结构,可以降低计算复杂度。