Sep, 2023

利用微调和最小前瞻波束搜索改善 Whisper

TL;DR在低资源语言方面,Whisper 的性能仍然不够完善。为了解决这些问题,我们在额外数据上对 Whisper 进行了微调,并提出了一种改进的解码算法。在越南语上,使用 LoRA 对 Whisper-Tiny 进行微调可以将 WER 相对于零 - shot 的 Whisper-Tiny 设置提高 38.49,相对于完全参数微调的减少了 1.45。此外,使用 Filter-Ends 和 Min Lookahead 解码算法,WER 相对于标准 beam search 平均减少了 2.26。这些结果推广到更大的 Whisper 模型尺寸。我们还证明了 Min Lookahead 优于 Whisper 中使用的标准 beam search 算法。