Mar, 2022
使用未经配对的语音数据为端到端ASR模型预训练Transformer解码器
Pre-Training Transformer Decoder for End-to-End ASR Model with Unpaired
Speech Data
TL;DR本文在多任务学习框架下,提出了一种使用新型无配对语音数据的预训练技术 Speech2C,通过声学单元 (pseudo codes) 派生自离线聚类模型,提出两个预训练任务来训练“编码器 - 解码器”网络,其一是像 HuBERT 模型一样通过掩蔽语言模型在编码器输出中预测 pseudo codes,其二则是让解码器自回归地重构 pseudo codes。此方法能够在 LibriSpeech 语料库上相对于没有解码器预训练的方法将字词错误率 (WER) 降低 19.2%,并且在 10h 和 100h 的微调子集上显著优于最先进的 wav2vec 2.0 和 HuBERT。