引入 cosmosGPT:针对土耳其语言模型的单语言训练
通过在 LLaMa2 的词汇表中添加 10,000 个波斯语标记并在包含近 20 亿波斯语标记的数据集上进行训练,我们展示了我们的方法既保留了模型的英语知识,又利用了迁移学习在不同语言之间传递任务知识的优势。
Jan, 2024
本文旨在解决土耳其语自然语言处理方面的挑战,探讨通过构建大规模土耳其语语料库和训练大型语言模型(LLM),在细调已经训练好的模型的基础上,实现特定任务的自定义大型语言模型。
Jun, 2023
本研究通过对土耳其语系 22 种语言的大规模机器翻译系统的培训和评估,发现 MNMT 模型在领域外测试集中的表现优于几乎所有双语基线,并在单对下游任务的微调中也获得了巨大的性能提升。
Sep, 2021
本文介绍了两种自回归 GPT 类模型,使用维基百科和 Colossal Clean Crawled Corpus 训练了 60 种语言、25 种语言系的搜索,展示了多种任务上的表现,包括分类、生成、序列标记和知识探测,在多语种任务上有着与 Facebook 最近发布的 XGLM 模型相媲美的表现。
Apr, 2022
本研究目的是填补文献中关于土耳其语的各种开源语言模型的性能比较的空白,通过比较七个选择的语言模型在上下文学习和问答能力方面的表现,发现继续在 fine-tuning 之前进行预训练的指导数据集可以更好地适应土耳其语的多语种模型,并且上下文学习的表现与问答的表现关系不大。
Apr, 2024
本研究旨在解决目前英语和拉丁语为主导的大型语言模型 (LLMs) 中,对于阿拉伯语母语的阿拉伯 LLMs 的缺乏问题。通过提出 ArabianGPT 系列模型,结合 AraNizer 分词工具和微调技术,有效改进了阿拉伯语自然语言处理的准确性和性能。
Feb, 2024
本文研究了使用 Transformer 模型 Bert、DistilBert、ELECTRA 和 RoBERTa,以及多层感知器 MLP 对土耳其地图数据进行多语言和土耳其语 fine-tune 的实验,结果表明土耳其语特定模型与多语言 fine-tuning 的相比略微更好,并且 BERT 变种对于地址类别分类的效果非常好。
Jun, 2023
通过本综述论文,我们对大规模 GPT 模型的可替代开源模型进行了研究,重点关注用户友好和相对小型的模型,以促进更容易部署和访问。通过这个广泛的调查,我们旨在为研究人员、实践者和爱好者提供对大规模 GPT 模型的用户友好和相对小型的开源模型的深入了解,包括它们的当前状态、挑战和未来研究方向,以激发更高效、易于访问和多功能的 GPT 模型的开发,以满足更广泛的科学界需求,推动通用人工智能领域的发展。
Aug, 2023
该研究聚焦于用于芬兰语的大型语言模型(LLMs)的创建和评估,通过从各种来源收集数据并进行预训练,综合其他语言模型的方法,在芬兰语领域取得了显著进展,并对模型的质量进行了评估,包括毒性和偏见。
Nov, 2023
本文探讨了大型语言模型(LLMs)在波斯语中的有效性。研究发现,虽然 ChatGPT 和其他 LLMs 在英语中表现出色,但它们在资源稀缺的语言上的效率仍然是一个悬而未决的问题。研究通过对各种波斯语任务进行全面的基准测试研究,重点评估了 GPT-3.5-turbo,同时还包括 GPT-4 和 OpenChat-3.5,以提供更全面的评估。研究结果显示,虽然 LLMs,特别是 GPT-4,在需要推理能力和对一般知识的广泛理解的任务中表现出色,但它们通常落后于针对特定任务进行细化调整的较小的预训练模型。此外,研究还观察到将测试集翻译成英语后输入 GPT-3.5 会改善其性能。这些结果突显了提升波斯语中 LLM 性能的重要潜力,这尤其值得注意,因为波斯语具有独特的字母和写作风格。
Apr, 2024