基于改进 Conformer 模型的端到端语音识别模型与 R-Drop 结构的研究
本研究采用基于 Conformer 的声学模型解决了自动语音识别中的鲁棒性问题,并在 CHiME-4 语料库的单声道 ASR 任务中经过测试,其使用 utterance-wise 归一化和说话人自适应的方式,相比经典的 wide residual 双向长短时记忆网络,减小了 18.3% 的模型大小,训练时间减少了 79.6%且相对误差率比 WRBN 低 8.4%。
Mar, 2022
本文介绍了如何通过引入逐渐下采样的机制和新颖的分组注意力机制将 Conformer 架构的复杂性降至与有限计算预算相适应的情况。在 LibriSpeech 数据集上进行的实验说明,该架构相比于 Conformer 速度更快,性能更好,且包含更少的参数。
Aug, 2021
本文提出了一种名为 Conformer 的语音识别(Automatic Speech Recognition)模型,结合了 Transformer 和卷积神经网络 (Convolution neural network) 的优点,在参数更少的情况下实现对于语音序列的局部和全局依赖的建模,并在 LibriSpeech benchmark 测试中取得了 2.1%/4.3%(未使用语言模型)和 1.9%/3.9%(使用外部语言模型)的字错率(Word Error Rate),表现超越了之前的基于 Transformer 和 CNN 的模型。
May, 2020
该文介绍了一种名为 XLNet-Transformer-R 的模型,结合 XLNet 预训练模型和相对位置编码的 Transformer 编码器,以提高模型的泛化能力和处理长文本的能力,在防止过拟合的同时提高命名实体识别任务的准确性,并通过 MSRA 数据集的消融实验和四个数据集的比较实验证明了该模型的有效性。
Jun, 2023
通过重新审视 Conformer 架构的设计选择,我们提出了 Squeezeformer 模型,展示其在同一训练方案下一致优于当前最先进的 ASR 模型,取得了 7.5%,6.5%和 6.0%的字错率(WER)结果,比具有相同数量的 FLOPs 的 Conformer-CTC 更好 3.1%,1.4%和 0.6%。
Jun, 2022
本文提出一种基于混合 CTC / 注意力模型的 ResNet-18 和卷积扩充变压器 (Conformer),可以进行端到端的训练。在语音识别方面取得了具有突破性的进展,实现了最先进效果。
Feb, 2021
本论文介绍了 Conformer-1,一种端到端的自动语音识别(ASR)模型,它是在一个包含 570k 小时的语音音频数据的广泛数据集上训练的,其中 91%是从公开来源获取的。通过在未标记的公共数据上使用强大的 Conformer RNN-T 基线模型生成伪标签,我们进行有噪声学生训练。这些伪标记数据的添加使我们的异步和实时模型在相对词错误率(WER)上分别提高了 11.5%和 24.3%。此外,由于添加了这些数据,该模型对背景噪声更具鲁棒性。本研究取得的结果表明,将伪标签的公开可用数据纳入 ASR 精度和噪声鲁棒性的改进中是一种非常有效的策略。
Apr, 2024
本文介绍了 ESPnet 工具包中的最新成果,包括基于 Conformer 的新型架构的应用于自动语音识别、语音翻译、语音分离和文本转语音等各种任务的实验结果,具备高性能且与现有的 Transformer 模型相竞争性或超越其成果;同时我们通过公开的语料库和预训练模型减轻了之前模型搭建过程中的资源负担。
Oct, 2020
本文介绍了一种名为 HyperConformer 的语音识别结构,它通过引入高效的 HyperMixer 机制,实现了对于长输入序列较为经济的全局交互建模,并在可获得的训练数据限制下达到与或高于传统结构 Conformer 相似的识别表现。
May, 2023