翻译是唯一需要吗?关于使用大型语言模型解决多语言任务的研究
本文系统地研究了大型语言模型在多语言机器翻译中的优势和挑战,并在 102 种语言上评估了 XGLM、OPT、BLOOMZ 和 ChatGPT 四种常见模型的性能。在进一步分析中,本文发现大型语言模型在多语言机器翻译中具有一些新的工作方式。
Apr, 2023
本文通过大量实证研究探索了多语言大型语言模型在涉及语种切换的情况下情感分析、机器翻译和单词级别语言识别等任务的表现。研究显示,虽然这些模型在使用零 / 少量提示时在某些任务中表现出色,但与较小的微调模型相比,它们的性能仍然有所不适。因此,研究者认为未来需要进一步研究来完全弥合这一差距。
May, 2023
通过使用机器翻译作为涉及英语和22种印度语言的任务,我们探索了大型语言模型的多语言能力,研究了原始模型的翻译能力和上下文学习能力,通过参数高效的微调方法和完全微调,我们确定了最佳性能的大型语言模型。结果表明,大型语言模型在包括目前在LLMs中代表较少的语言的机器翻译能力方面取得了显著的进展。
Nov, 2023
基于大型语言模型(LLMs),本研究评估了Llama2在机器翻译方面的能力,并探讨了对训练数据中语言的依赖性。实验证明,7B规模的Llama2模型对其已见过的所有语言都具有10 BLEU分数以上,但对未见过的语言不一定如此。我们的语言距离分析表明,句法相似性并非决定翻译质量的主要语言因素。有趣的是,我们发现在特定条件下,某些语言虽然训练数据明显少于英语,却与英语具有可比较的强相关性。本研究结果为目前LLMs的发展提供了新的视角,提出了以非英语语言为中心构建多语言模型的可能性。
Feb, 2024
研究表明,尽管当前大部分开放式语言模型主要面向英语或少数几种高资源语言,人们却在多种语言中使用这些模型。本文通过引入MultiQ标准测试并评估27.4k个不同语言的基本开放式问答问题,探讨了现有开放式语言模型在超越其预定用途方面的多语言能力。通过研究发现,在一些语言中,这些模型在回答问题时表现得既忠实又准确,而大多数模型在忠实于回答问题时的准确性更高,但在某些语言中模型的准确性和忠实度都较低。我们还探讨了分词对这些发现的潜在解释,发现了可能存在的相关性,值得进一步研究。
Mar, 2024
对大型语言模型(LLMs)在多语种环境中的应用进行了综述,包括训练和推理方法、模型安全性、多领域与语言文化、数据集使用,同时讨论了相关方面的主要挑战和潜在解决方案,并提出了进一步增强语言模型的未来研究方向。
May, 2024
通过多语言对齐方法,本文研究了大型语言模型的多语言能力提升,发现即使在没有注释答案的情况下,仅通过问题翻译数据进行训练的语言模型能够在广泛的未见过的语言中获得显著的性能提升,并利用不同的设置和机理解释方法对多语言场景下的语言模型性能进行了全面分析。
May, 2024
多语言大型语言模型在自然语言处理领域的研究人员和从业者中广受欢迎。本文介绍了多语言大型语言模型的技术方面,并对其底层架构、目标函数、预训练数据来源和分词方法进行了概述。此外,还探讨了不同模型类型的独特特征,包括仅编码器模型、仅解码器模型和编码器-解码器模型。同时,还讨论了多语言大型语言模型的一个重要局限性,即多语言之间的相互影响问题,并探究了克服这一问题的当前尝试。
Jun, 2024
对多语言语言模型进行评估,提出可靠的评估实践方向,通过机器翻译研究其在低资源语言上的性能,并发现简化的基准模型能够取得相对强的性能表现。
Jun, 2024