Jun, 2023

降低自监督学习门槛:使用学术计算资源进行 HuBERT 预训练

TL;DR本研究的目标是将自监督学习模型优化为适应学术限制,它们只需要使用 8 个 GPU 而不是 32 个 GPU 就可以实现与原始模型相近的性能,并探索了一种使用 ASR 模型跳过第一次预训练迭代的半监督路线。