机器翻译的范式转变:提升大型语言模型的翻译性能
通过使用机器翻译作为涉及英语和22种印度语言的任务,我们探索了大型语言模型的多语言能力,研究了原始模型的翻译能力和上下文学习能力,通过参数高效的微调方法和完全微调,我们确定了最佳性能的大型语言模型。结果表明,大型语言模型在包括目前在LLMs中代表较少的语言的机器翻译能力方面取得了显著的进展。
Nov, 2023
神经机器翻译(NMT)的进化受到六个核心挑战的显著影响,本研究重新审视这些挑战,提供有关高级大型语言模型(LLMs)背景下其持续相关性的见解:领域不匹配、平行数据量、罕见词预测、长句翻译、注意力模型作为词对齐以及次优束搜索,我们的实证发现表明LLMs在主要语言的预训练阶段有效减少对平行数据的依赖,LLM基于的翻译系统显著提高了包含大约80个单词的长句翻译,并且可翻译长度达512个单词的文档。然而,尽管取得了显著改进,领域不匹配和罕见词预测的挑战仍然存在。虽然与NMT特定相关的词对齐和束搜索的挑战可能不适用于LLMs,但我们确定了LLMs在翻译任务中面临三个新的挑战:推理效率、预训练阶段对低资源语言的翻译以及人对齐评估。数据集和模型在此https URL上发布。
Jan, 2024
大型语言模型在机器翻译方面表现出良好的性能,但是使用监督微调的方式仍存在一些问题,本研究引入了对比优选优化 (CPO) 方法来改进性能。通过将 CPO 应用于 ALMA 模型,可以在限定的数据和参数规模下达到与竞赛获胜者及 GPT-4 相当甚至超过其性能的 ALMA-R 模型。
Jan, 2024
本文介绍了一项关于增强大型语言模型(LLMs)在机器翻译(MT)任务中翻译能力的研究,提出了一个包括三个阶段的新范 Paradigm,通过使用大量的单语数据进行二次预训练、使用互译文本格式文档进行连续预训练,以及利用和源语言一致的指导来进行监督微调。实验结果表明,我们的方法在翻译能力方面取得了显著的改进,超过了以前的工作,并在参数数量较小的情况下实现了优越的性能。
Mar, 2024
目前在使用大型语言模型(LLM)进行细调以进行翻译方面的实践中,研究发现LLMs在仅用32个训练实例进行细调后表现出很强的翻译能力,并且单向细调能够使LLMs实现多方向翻译,但是选择翻译方向非常重要,使用英语在目标语言侧进行细调可能导致任务误解,从而阻碍对非英语语言的翻译。在平行数据的目标语言侧引入噪声时也会出现类似的问题,尤其当目标语言在LLM的预训练中具有较好的表示时。相比之下,对于不充分表示的语言,噪声的影响较小。研究发现,成功对齐取决于教会模型保持“表面”关注,从而避免学习错误的偏差而影响翻译。
Apr, 2024
通过在平行文本上对大型语言模型 (LLM) 进行微调,新的机器翻译范式已被证明能够胜过使用大量平行数据以监督方式训练的专用翻译系统,然而,对于大规模多语言机器翻译,是否需要对少数语言对进行专门的模型微调仍然不清楚。本研究通过对TOWER系列语言模型在132个来自多语言平行数据FLORES-200的翻译任务上进行实证评估,发现翻译微调即使对于零样本语言平均而言也会提高翻译质量,但其影响因所涉及的语言对而异。这些结果呼吁进一步研究以有效实现大规模多语言翻译。
May, 2024
本文探讨了将大型语言模型(LLMs)适应低资源翻译所需的条件,重点分析了平行数据的重要性和监督微调中的多样性对性能的影响。研究发现,平行数据在预训练和微调过程中对低资源LLM-MT至关重要,而多样性往往导致干扰而非迁移。这些发现具有普遍性,对提升低资源语言的多语种LLM-MT模型具有重要价值。
Aug, 2024
本研究关注大型语言模型(LLMs)在特定组织翻译中的表现,尤其是微调过程中的数据规模影响。通过结合翻译记忆(TMs),我们发现扩大的训练集规模在多种评估指标上显著提升了翻译质量,最大数据集的BLEU和COMET评分分别比基线模型提高了13和25分。这一发现为企业提供了利用TMs和LLMs优化翻译效果的宝贵见解。
Sep, 2024
本研究解决了大型语言模型(LLMs)在组织特定翻译中面临的细微差别与风格问题。通过利用翻译记忆(TMs)对Llama 3模型进行微调,研究表明使用更大规模的数据集能够显著提高翻译质量,尤其在软件行业的应用上具有重要的潜在影响。
Sep, 2024