跨越语言的视角:越南大型语言模型的微调和全面评估
这篇论文介绍了在获取足够数据用于微调越南语言模型时所面临的挑战,以及使用这些数据进行微调得到的越南语模型的良好性能,提供了针对将来微调越南语等语言模型的实际解决方案和指导。
Nov, 2023
本研究介绍了 ViLLM-Eval,一个综合评估套件,用于衡量基于越南语背景下的基础模型的高级知识和推理能力,通过多项选择题和预测下一个单词的任务,评估了最先进的大语言模型在 ViLLM-Eval 上的表现,揭示了这些模型在理解和应对越南语任务方面仍有待改进的空间,该套件将有助于发现基础模型的关键优势和劣势,最终促进其发展并提升在越南用户中的性能。
Apr, 2024
本论文介绍了一种针对越南语设计的创新型大型语言模型 vi-mistral-x,利用连续预训练的独特方法,通过 Mistral 架构结合了分组查询注意力和滑动窗口注意力技术,大幅提升了对越南语的理解和生成能力,在文本分类、问题回答和文本生成等关键领域明显优于现有的越南语大型语言模型,特别在越南多任务语言理解基准测试中表现突出,提升了针对语言的大型语言模型的发展,并鼓励为较少被代表的语言创建更多大型语言模型。
Mar, 2024
通过利用开源项目中的大规模指令遵循数据集,我们采用参数高效调整方法对两个开放许可的大语言模型 (Bloomz 和 GPTJ) 进行了调整,使其在越南语上取得了显著的性能提升,并通过自动评分机制证明我们的方法相对于原始模型在评估任务上的效果提升了约 20-30%。
Sep, 2023
通过参数高效微调能够提高大语言模型的性能,而无需大量的资源和计算。对多语言评估的先前研究表明,英语和其他语言在性能上存在很大差距。此外,开源模型和较大规模的语言模型之间也存在差距。微调是弥合差距、使语言模型更加公平的有效方法。本研究通过对合成多语言指示微调数据上进行 LLaMA-7B 和 Mistral-7B 模型的微调,以评估其对模型在涵盖 23 种语言的五个下游任务上的性能影响。此外,我们还在低秩适应的等级和量化值上进行了实验,以确定它们对下游性能的影响并发现较高的等级和量化值有益于低资源语言。我们发现通过参数高效微调较小的开源模型有时可以弥合这些模型和较大模型性能之间的差距,但对英语性能有所降低。我们还发现微调有时可以提高低资源语言的性能,但在高资源语言上性能可能会下降。
Jan, 2024
我们提出了两种解决多模态模型创建训练数据方面的问题的有效方法,并基于这些方法构建了一个 91K 的英 - 韩 - 中多语言多模态训练数据集,并开发了一种双语多模态模型,在韩语和英语方面表现出优秀的性能,超过了现有方法。
Mar, 2024
MindLLM 是一系列双语轻量级大型语言模型,通过从头开始训练模型以减轻培训和部署大型语言模型的负担并解决资源不足问题。该论文提供了大模型开发过程中的经验,并介绍了适用于较小模型的创新指令调整框架,同时探索了 MindLLM 在法律和金融等特定垂直领域的应用。
Oct, 2023
本研究提出了三种策略以增强不太具备资源的语言在大型语言模型中的表现:扩展词汇表、使用双语数据进行预训练以对齐高资源语言和低资源语言、构建高质量的小规模指令数据集并进行指令微调。通过对比八个任务的其他大型语言模型,在质量分析中,我们的提出的 Bllossom 模型表现出优异的性能。
Mar, 2024