通过多语言对齐方法,本文研究了大型语言模型的多语言能力提升,发现即使在没有注释答案的情况下,仅通过问题翻译数据进行训练的语言模型能够在广泛的未见过的语言中获得显著的性能提升,并利用不同的设置和机理解释方法对多语言场景下的语言模型性能进行了全面分析。
May, 2024
通过对 101 种语言进行全面分析,评估了大型语言模型(LLMs)的多语言能力,并将具有相似特征的语言分类为四个不同的象限,为调整这些语言提供可操作的指导。通过深入研究每个象限,阐明了其分类背后的理由,并提出了改进 LLMs 的多语言性能的具体属性。实验结果表明,现有的 LLMs 具有超出预期的多语言能力,并且通过关注每个象限中存在的不同属性,我们可以显著提高 LLMs 的多语言表现。
Nov, 2023
本文提供了一种系统方法来衡量 LLMs 在多语言环境下的表现差异,探讨了 LLMs 的跨语言概括现象,结果表明 GPT 在多语言环境下表现出高度翻译一致的行为。
May, 2023
该研究分析了多语言大型语言模型(MLLMs)的关键问题,包括语言不平衡、多语言对齐和固有偏差,探讨 MLLMs 的全球语言表示能力、偏见和挑战,并提出了有前景的研究方向。
Apr, 2024
使用大型语言模型通过少量提示将英文数据集转化为多种语言,以实现多语言语义解析,并在两个公共数据集上与传统的翻译 - 训练方法进行比较,表明使用 LLM 更有效。
Oct, 2022
通过研究生成式大型语言模型在机器翻译中的性能,我们发现多语言模型(如 PaLM)在人工翻译输出方面表现出类似人类的水平,能够根据样式指南和语言要求优化所需的翻译细微差别,并在处理和应用提示上表现出色。我们还针对流行的语言模型作为机器翻译工具的错误和限制进行了分类和提出了设计提示进行上下文学习的方法。通过改进评估指标的准确性和可靠性,我们的研究旨在促进生成式大型语言模型在机器翻译中的进步。
Jan, 2024
本文系统地研究了大型语言模型在多语言机器翻译中的优势和挑战,并在 102 种语言上评估了 XGLM、OPT、BLOOMZ 和 ChatGPT 四种常见模型的性能。在进一步分析中,本文发现大型语言模型在多语言机器翻译中具有一些新的工作方式。
Apr, 2023
通过与只使用英文进行微调的模型相比较,研究发现只使用三种语言进行多语种微调可以显著提高模型在生成式任务上的跨语言转移能力,而在高度结构化的任务上影响较小。
Dec, 2023
本研究引入了 PLUME(Parallel Language Model),该模型是由三个 2B LLMs 组成,采用不同词汇量(32k、128k 和 256k),并且完全基于加泰罗尼亚语为中心的平行语料进行训练。这些模型在 16 个有监督翻译方向和 56 个零样例下的翻译性能与之前的编码解码架构相当。利用这些模型,我们对 LLMs 的翻译能力进行了全面调查,探究其性能、提示的不同元素以及跨语言表示空间的影响。
Jun, 2024
对大型语言模型(LLMs)在多语种环境中的应用进行了综述,包括训练和推理方法、模型安全性、多领域与语言文化、数据集使用,同时讨论了相关方面的主要挑战和潜在解决方案,并提出了进一步增强语言模型的未来研究方向。