BriefGPT.xyz
大模型
Ask
alpha
关键词
transformer-based speech self-supervised learning
搜索结果 - 2
STaR: 为轻量级语音自监督学习模型提取语音时序相关性
通过使用 STaR(speech temporal relation)蒸馏方法,能够在参数较少的情况下压缩和保持语音自监督学习模型的表现,该方法适用于不同的语音自监督学习模型并具有鲁棒的性能。
PDF
7 months ago
Recycle-and-Distill: 基于注意力映射重用和掩码蒸馏的 Transformer 语音 SSL 模型通用压缩策略
本研究提出基于 Transformer 的语音自监督学习模型压缩方法,包括重用注意力矩阵并采用新型蒸馏策略。我们的通用压缩策略可在 SUPERB 基准测试中实现 7.72% 的音素错误率和 9.96% 的单词错误率。
PDF
a year ago
Prev
Next