领域术语整合到机器翻译:利用大型语言模型
本文旨在探究如何利用上下文学习的方法来提高实时自适应机器翻译的质量,并研究将强编码器 - 解码器模型和模糊匹配相结合以进一步提高翻译质量的方法。已在五个大不同的语言对上展开了实验。
Jan, 2023
在机器翻译的下游应用中,术语的正确性非常重要,通过将术语约束注入翻译系统可以实现。本研究采用一种翻译后再优化的方法,可以实现跨领域且需要较少手动操作。我们通过使用从词对齐中获得的伪术语翻译来注释随机源词,首先训练一个术语感知模型。此外,我们还探索了两种后处理方法。第一,我们使用对齐过程来发现是否违反了术语约束,如果是,则使用负面约束对违反术语的词进行重新解码。或者,我们利用大型语言模型通过提供术语约束来优化假设。结果表明,我们的术语感知模型能够有效地学习并整合术语,而大型语言模型优化过程可以进一步提高术语的召回率。
Oct, 2023
使用大型语言模型通过少量提示将英文数据集转化为多种语言,以实现多语言语义解析,并在两个公共数据集上与传统的翻译 - 训练方法进行比较,表明使用 LLM 更有效。
Oct, 2022
本文介绍了一项关于增强大型语言模型(LLMs)在机器翻译(MT)任务中翻译能力的研究,提出了一个包括三个阶段的新范 Paradigm,通过使用大量的单语数据进行二次预训练、使用互译文本格式文档进行连续预训练,以及利用和源语言一致的指导来进行监督微调。实验结果表明,我们的方法在翻译能力方面取得了显著的改进,超过了以前的工作,并在参数数量较小的情况下实现了优越的性能。
Mar, 2024
通过使用 Multidimensional Quality Metric (MQM) 注释中的外部反馈来引导大型语言模型 (LLMs) 自动对机器翻译进行后编辑,以提高翻译质量。使用 LLaMA-2 模型,通过改变反馈的特性,我们考虑了不同的提示策略,并对 LLM 进行微调以提高其利用所提供指导的能力,实验证明提示 LLMs 对机器翻译进行后编辑,可以改善 TER、BLEU 和 COMET 分数,微调有助于更有效地整合细粒度的反馈,并基于自动和人工评估进一步提高翻译质量。
Apr, 2024
通过提出一种新的微调方法,我们设计了一种面向翻译任务的先进语言模型的翻译器 ALMA,该模型在 WMT'21 和 WMT'22 的测试数据集上相比于之前的工作和具有 7B 或 13B 参数的模型有着显著性能提升,并为机器翻译领域的新的训练范式奠定了基础。
Sep, 2023
本文介绍了腾讯的多语言机器翻译系统,该系统使用数据扩增、分布式稳健优化和语系分组等技术来应对数据不平衡和多语言难题,其中在 WMT22 的有限数据情况下,取得了第一名的成绩。
Oct, 2022
通过研究多语言神经网络模型,使用深度学习,如基于 Transformer 的结构,我们在临床文本机器翻译方面进行了调查。此外,为了解决语言资源不平衡问题,我们还使用基于大规模多语言预训练语言模型(MMPLMs)的迁移学习方法进行了实验。在临床案例(CC)、临床术语(CT)和本体概念(OC)等三个子任务上的实验结果表明,我们的模型在 ClinSpEn-2022 共享任务中的英语 - 西班牙语临床领域数据中表现出了最佳水平。此外,基于专家评估的人工评估结果显示,小型预训练语言模型(PLM)在临床领域微调中以大幅度优于其他两个超大型语言模型,这是该领域前所未有的发现。最后,迁移学习方法在我们的实验设置中运行良好,使用 WMT21fb 模型适应了预训练阶段在 WMT21fb 中未见的西班牙语语言空间,这值得进一步探索临床知识转化方面,例如研究更多语言。这些研究结果可以为特定领域的机器翻译开发提供一些启示,尤其是在临床和医疗领域。在我们的工作基础上可以开展进一步的研究项目,以改进医疗文本分析和知识转化。
Dec, 2023