BriefGPT.xyz
大模型
Ask
alpha
关键词
distilhubert
搜索结果 - 2
通过数据增强、课程学习和多任务增强提高 DistilHuBERT 对未知噪声环境的鲁棒性
本研究提出了一种改进的 DistilHuBERT 模型,该模型引入了噪声和混响以及多任务学习的训练方法,能够有效提高在真实环境下的边缘语音应用中的鲁棒性。
PDF
2 years ago
DistilHuBERT:基于层间蒸馏的 BERT 隐藏单元语音表示学习
本文介绍了 DistilHuBERT,它是一种新的多任务学习框架,可从 HuBERT 模型中提取隐藏表示,节省了大量内存和训练时间成本,并且在十个不同的任务中保留了大多数性能,从而使得个人和设备上的 SSL 模型的预训练成为可能。
PDF
3 years ago
Prev
Next