Sep, 2023
大规模语言模型重整的低秩适应对于参数高效语音识别
Low-rank Adaptation of Large Language Model Rescoring for Parameter-Efficient Speech Recognition
Yu Yu, Chao-Han Huck Yang, Jari Kolehmainen, Prashanth G. Shivakumar, Yile Gu...
TL;DR提出了一种基于低秩适应(LoRA)的神经语言建模系统,用于语音识别输出的再评分。通过低秩分解的方法,使用仅占预训练参数 0.08% 的插入矩阵进行训练和领域适应,实现了 Rescore-BERT(LoRB)架构,并在 LibriSpeech 和内部数据集上减少了 5.4 至 3.6 倍的训练时间。