Nov, 2024

使用LoRA PEFT调优将多语言LLM适应低资源语言的挑战

TL;DR本研究解决了将大型语言模型适应低资源语言的挑战,重点研究了低秩适应(LoRA)在Marathi语言上的应用。研究发现,虽然评估指标在微调后通常显示性能下降,但人工评估表明微调模型在生成目标语言方面表现更佳,提示需要改进评估方法和创建高质量的本地数据集以准确评估低资源设置中模型的性能。