Dec, 2023
STaR: 为轻量级语音自监督学习模型提取语音时序相关性
STaR: Distilling Speech Temporal Relation for Lightweight Speech Self-Supervised Learning Models
Kangwook Jang, Sungnyun Kim, Hoirin Kim
TL;DR通过使用 STaR(speech temporal relation)蒸馏方法,能够在参数较少的情况下压缩和保持语音自监督学习模型的表现,该方法适用于不同的语音自监督学习模型并具有鲁棒的性能。