Mar, 2022

使用未经配对的语音数据为端到端 ASR 模型预训练 Transformer 解码器

TL;DR本文在多任务学习框架下,提出了一种使用新型无配对语音数据的预训练技术 Speech2C,通过声学单元 (pseudo codes) 派生自离线聚类模型,提出两个预训练任务来训练 “编码器 - 解码器” 网络,其一是像 HuBERT 模型一样通过掩蔽语言模型在编码器输出中预测 pseudo codes,其二则是让解码器自回归地重构 pseudo codes。此方法能够在 LibriSpeech 语料库上相对于没有解码器预训练的方法将字词错误率 (WER) 降低 19.2%,并且在 10h 和 100h 的微调子集上显著优于最先进的 wav2vec 2.0 和 HuBERT。