本文提出了一种自适应掩蔽方法,用于高效地修剪多语言自动语音识别模型,并展示了该方法在目标为稀疏的单语言模型时的优势,同时减少了语言特定修剪的需求。
Sep, 2023
本篇论文提出了一种适应性激活网络,用于深度学习 ASR 模型的上层,并将不同的激活函数应用于不同的语言,通过交叉语言学习和多语言学习优化模型,达到了在 IARPA Babel 数据集上超越传统的基于瓶颈特征和从头训练两种方法的效果提升,结合交叉语言学习和多语言学习可以进一步提高多语言语音识别的性能。
May, 2022
我们研究了应用于基于 Transformer 的语音识别神经网络语言模型的模型修剪方法。我们探究了修剪框架的三个方面,即准则、方法和调度器,分析了它们在准确性和推理速度方面的贡献。除此之外,我们提出了一种适用于渐进式压缩模型、并可以交付多个具有不同目标尺寸的模型的低秩逼近的变体。我们的研究结果包括:a)在多种场景中,数据驱动的修剪效果优于基于幅度的修剪;b)渐进式修剪相比一次性修剪在准确性方面有更好的表现,特别是在目标尺寸较小时;c)对于中等压缩程度,低秩逼近提供了尺寸减小和推理加速之间的最佳平衡。
Oct, 2023
使用神经模型重编程的参数高效学习框架,可在跨语音识别中重新利用训练良好的英文自动语音识别模型,实现大规模预训练 ASR 成功,提高了训练效率。
Jan, 2023
该研究旨在通过 Omni-sparsity supernet 方法联合训练一个紧凑稀疏的流式 ASR 模型和一个大型密集的非流式服务器模型,进而提高现有 ASR 模型的性能。
Jul, 2022
本文介绍了动态稀疏神经网络 (DSNN) 技术,该技术能够在训练后根据需要在运行时即时切换到任何预定义的稀疏度配置,有效地解决了自动语音识别 (ASR) 等场景中硬件资源限制和延迟要求不同的问题,实验结果表明,DSNN 模型的表现与单一稀疏度网络的表现相当。
May, 2020
本文探讨了利用单一声学模型进行多种语言训练,以提高低资源语言的自动语音识别性能,并简化支持多种语言的 ASR 系统的部署。作者在 51 种语言上进行广泛的基准测试和比较,表明与单语言训练相比,多语言训练的 ASR 模型可以提高识别性能,特别是对于低资源语言。与单语言基线相比,联合模型、具有语言输入的联合模型和多头模型的平均 WER 相对减少 20.9%、23%和 28.8%。据我们所知,这是第一次研究超过 50 种语言和超过 16,000 小时声音跨其的多语言 ASR 的大规模研究。
Jul, 2020
通过发现语音自监督训练模型中的稀疏子网络,提出了一种名为 PARP 的裁剪调整反复裁剪的策略,使低资源情况下的 ASR 系统表现得更好,其相较于常规的裁剪方法更具有性价比。
Jun, 2021
本文介绍了一种基于序列到序列的正常语音识别模型,它适用于 9 种不同的印度语言,并通过训练语言特定的字形集合,将这些语言联合起来训练模型以提高其性能。
Nov, 2017
本论文提出了一种新的压缩策略,利用结构剪枝和知识蒸馏来减小 Conformer 模型的模型大小和推理成本,同时保持高识别性能。该方法优于所有剪枝基线,在 LibriSpeech 基准测试中实现了 50%的模型大小减少和 28%的推理成本减少,同时最小化了性能损失。
May, 2023