近期大型语言模型在低资源语言中的表现
本篇综述论文全面分析了大型语言模型的架构及其分类、训练策略、训练数据集和性能评估,并讨论了未来的研究方向,最后总结了大型语言模型研究的重要发现和关键的架构和训练策略。
Jul, 2023
通过评估 GPT-4 和 PaLM2 在 MEGAVERSE 数据集上的表现,研究发现这两个模型在多个任务上超过了 Llama 模型,尤其是在资源稀缺的语言中,其中 GPT-4 在更多的数据集上优于 PaLM2。然而,为了准确评估非英语语言上 LLM 的性能,我们需要解决数据污染等问题。
Nov, 2023
通过使用机器翻译作为涉及英语和22种印度语言的任务,我们探索了大型语言模型的多语言能力,研究了原始模型的翻译能力和上下文学习能力,通过参数高效的微调方法和完全微调,我们确定了最佳性能的大型语言模型。结果表明,大型语言模型在包括目前在LLMs中代表较少的语言的机器翻译能力方面取得了显著的进展。
Nov, 2023
对大型语言模型(LLMs)进行了综述,包括三个流行的LLM系列(GPT,LLaMA,PaLM)的特点、贡献和局限性,同时讨论了构建和增强LLMs的技术、为LLM训练、微调和评估准备的常用数据集以及常用的LLM评估指标,最后讨论了未来的挑战和研究方向。
Feb, 2024
评估低资源语言对大型语言模型(LLMs)性能的 Language Ranker 研究发现:不同语言上的LLMs性能排名大致相同,不同规模的LLMs具有相同的性能排序,LlaMa2在不同语言中的性能与预训练语料库的比例具有强相关性。
Apr, 2024
对大型语言模型(LLMs)在多语种环境中的应用进行了综述,包括训练和推理方法、模型安全性、多领域与语言文化、数据集使用,同时讨论了相关方面的主要挑战和潜在解决方案,并提出了进一步增强语言模型的未来研究方向。
May, 2024
多语言大型语言模型在自然语言处理领域的研究人员和从业者中广受欢迎。本文介绍了多语言大型语言模型的技术方面,并对其底层架构、目标函数、预训练数据来源和分词方法进行了概述。此外,还探讨了不同模型类型的独特特征,包括仅编码器模型、仅解码器模型和编码器-解码器模型。同时,还讨论了多语言大型语言模型的一个重要局限性,即多语言之间的相互影响问题,并探究了克服这一问题的当前尝试。
Jun, 2024
大型语言模型(LLMs)在各个领域中表现出卓越的能力,但在实际应用之前对其进行彻底评估是至关重要的,以确保其可靠性。本文系统地审视了LLM评估过程中导致不一致性和不可靠评估的主要挑战和限制,并根据我们的批判性评估提出了观点和建议,以确保LLM评估具有可重现性、可靠性和稳健性。
Jul, 2024
本研究解决了大型语言模型(LLM)在欧洲官方语言处理中的差距,提供了对多种LLM家族及其在单语和多语数据集上预训练的方法概述。关键发现是,为欧洲语言定制的LLM具有显著的性能提升潜力,从而推动相关语言处理任务的进展。
Aug, 2024
本研究针对大型语言模型(LLMs)在欧洲官方语言中的应用现状进行了综述,填补了该领域的文献空白。通过对LLaMA、PaLM、GPT和MoE等不同模型的分析,本文提出了改进和增强LLMs的有效方法,并总结了用于预训练的单语和多语数据集。这项工作为今后在欧洲语言环境下的发展提供了有价值的见解。
Aug, 2024