BriefGPT.xyz
大模型
Ask
alpha
关键词
cer reduction
搜索结果 - 3
多语音识别中的代码切换适配器适应
本文提出了在代码转换的语音中有效地微调大型预训练多语言语音模型的方法,并将代码转换建模为一系列潜在的二进制序列,以引导每个语言适配器在帧级别上的信息流,通过在阿拉伯语、普通话和印地语等多种语言与英语配对的数据集上的评估,显示出代码转换性能的
→
PDF
9 months ago
ApproBiVT: 使用近似的偏差 - 方差折衷指导早停和检查点平均的先导 ASR 模型更好地泛化
在这篇论文中,我们从偏差和方差的权衡角度重新考虑并更新了早停和检查点平均值的方法,使用训练损失和验证损失作为偏差和方差的近似代理,并在高级 ASR 模型上验证时,我们的方法在 AISHELL-1 和 AISHELL-2 上分别降低了 2.5
→
PDF
a year ago
使用无监督预训练改进基于 Transformer 的语音识别
提出一种称为 Masked Predictive Coding 的无监督预训练方法,可用于 Transformer-based 模型的无监督预训练,其应用于 HKUST 的实验表明,使用相同的训练数据,我们可以实现 CER 为 23.3%,
→
PDF
5 years ago
Prev
Next