阿姆哈拉语 LLaMA 和 LLaVA:低资源语言的多模态 LLMs
通过整合任务特定数据集和生成数据集,我们改进了 LLaMA-2-Amharic 模型,提高了其对阿姆哈拉语的语言模型性能,并公开了我们的数据集创建流程、指导性数据集、训练模型和评估结果,以促进针对特定语言的研究。
Feb, 2024
EthioLLM introduces multilingual large language models for five Ethiopian languages and English, along with a new benchmark dataset for downstream NLP tasks, evaluating their performance and making them available through an open-source repository.
Mar, 2024
近期,在自然语言处理方面的最新进展中,大型语言模型(LLM)得到了广泛应用,它们在上下文学习下表现出良好性能,甚至适用于未知的任务和语言。然而,它们在非洲语言上的性能尚不清楚。我们研究了三种广泛使用的大型语言模型(mT0,LLaMa 2 和 GPT-4)在 30 种非洲语言上的五个任务(新闻主题分类,情感分类,机器翻译,问答和命名实体识别)的表现。结果显示,所有的大型语言模型在非洲语言上的表现都低于水平,与英语等高资源语言相比,性能差距较大。我们发现,GPT-4 在分类任务上表现平均或令人印象深刻,但在机器翻译等生成任务上表现非常糟糕。令人惊讶的是,我们发现 mT0 在非洲语言上的跨语言问答表现最佳,超过了最先进的有监督模型(即,微调的 mT5)和 GPT-4 的表现。总体而言,由于 LLaMa 2 具有有限的多语言能力和以英语为中心的预训练语料库,因此其表现最差。总的来说,我们的研究结果呼吁确保非洲语言在大型语言模型中得到很好的代表,因为这些模型越来越受欢迎。
Nov, 2023
我们提出了两种解决多模态模型创建训练数据方面的问题的有效方法,并基于这些方法构建了一个 91K 的英 - 韩 - 中多语言多模态训练数据集,并开发了一种双语多模态模型,在韩语和英语方面表现出优秀的性能,超过了现有方法。
Mar, 2024
我们通过对 LLaMA 的实证研究发现,在使用不到 1% 的预训练数据时,可以实现与最先进的转移模型相媲美的性能,无论是在知识对齐还是响应质量方面,这一实验结果在十三种资源匮乏的语言中也呈现出相似的趋势。预计实验的结论将有助于开发非英语 LLMs。
Jan, 2024
通过将 LLM 作为连接多个专家模型的桥梁,采用 u-LLaVA 方法来解决多模态 LLM 在任务间产生的幻觉和相互干扰问题,该方法有效且简单,并在多个基准测试中获得了最先进的性能。
Nov, 2023
通过评估 GPT-4 和 PaLM2 在 MEGAVERSE 数据集上的表现,研究发现这两个模型在多个任务上超过了 Llama 模型,尤其是在资源稀缺的语言中,其中 GPT-4 在更多的数据集上优于 PaLM2。然而,为了准确评估非英语语言上 LLM 的性能,我们需要解决数据污染等问题。
Nov, 2023
本文旨在探索使用大型语言模型(LLMs)将英文翻译成蒙巴依语,一种在东帝汶使用的语言,本研究使用少量数据对 LLM 进行指导,以提高低资源语言的机器翻译质量。
Apr, 2024
研究了最近神经机器翻译 (NMT) 在英语和五种非洲低资源语言 (LRL) 对之间的效果,并表明多语言模型 (multilingual approach) 在某些翻译方向上有 +5 分数的提升。同时,提供标准的实验数据和测试集以供未来的研究使用。
Mar, 2020
我们详细调查了将 LLMs 适应到新语言的过程,包括词汇扩展、直接优化偏好以及低资源语言中的数据匮乏问题,我们的实验覆盖了 9 种语言和 2 个参数规模,并与先前的基准模型进行比较,我们的模型表现优于所有先前已发表的基准模型。
Apr, 2024