May, 2024
LlamaTurk:为低资源语言适应开源生成型大语言模型
LlamaTurk: Adapting Open-Source Generative Large Language Models for
Low-Resource Language
TL;DR通过对英语为主的生成大语言模型进行调整,以适应资源匮乏的语言,并评估了不同的策略,包括持续训练、指导微调、任务特定微调和词汇扩展。结果表明,持续训练改进了语言理解能力,任务特定微调一般提高了下游任务的性能,但扩展词汇未带来实质性的益处。此外,在适应时,较大的模型通过少样本微调可以提高任务性能,而多语言模型在适应时表现不如单语言模型。