Sep, 2023

大规模语言模型重整的低秩适应对于参数高效语音识别

TL;DR提出了一种基于低秩适应(LoRA)的神经语言建模系统,用于语音识别输出的再评分。通过低秩分解的方法,使用仅占预训练参数 0.08% 的插入矩阵进行训练和领域适应,实现了 Rescore-BERT(LoRB)架构,并在 LibriSpeech 和内部数据集上减少了 5.4 至 3.6 倍的训练时间。