BriefGPT.xyz
Ask
alpha
关键词
distilwhisper
搜索结果 - 2
多任务多语言语音模型的高效压缩
在这项研究中,我们发现了 Whisper 这个多任务和多语言语音模型在少数语言上的性能问题,并证明这是与讲话者特征及模型相关偏差有关。针对这个问题,我们提出了 DistilWhisper 方法,通过轻量级的模型微调和知识蒸馏策略,在保留了多
→
PDF
2 months ago
DistilWhisper: 通过语言专家高效蒸馏多任务语音模型
DistilWhisper 是一个轻量级模块化的 ASR 框架,通过语言专家和知识蒸馏的方式提高了 Whisper 的性能,同时保留了多任务和多语言预训练模型的鲁棒性,在目标语言中提高了 ASR 性能而仅引入了可忽略的参数开销。
PDF
8 months ago
Prev
Next