词汇消歧约束的神经机器翻译
本文研究了将用户提供的术语融入翻译中的词汇约束机器翻译(LNMT)模型,并提出了具有挑战性的评估方法和 PLUMCOT 方法来解决模型中挑战性的词汇约束问题,并提出了一个评估基准,结果表明 PLUMCOT 在处理 “看不见” 的约束条件方面效果显著。
Jun, 2023
通过利用大型语言模型,我们研究了在机器翻译中解决语义歧义的能力,并提出了两种改进方法,通过上下文学习和在精心策划的歧义数据集上的微调,我们的方法在五种语言方向中有四种能够匹敌或胜过 DeepL 和 NLLB 等最先进的系统,为将大型语言模型有效地用于歧义消解的机器翻译提供了有价值的见解。
Sep, 2023
本文提出了一种在神经机器翻译中加入词汇约束的简单有效算法,该算法可以在推理时注入术语约束,而不影响解码速度,并且无需修改训练流程,使用自定义字典即可运行,实验结果表明,我们的方法在英德 WMT 数据集上可以提高基线和之前方法的翻译质量。
Apr, 2020
本文提出了一种新的框架,将用户提供的限制条件作为外部记忆存储,并以柔性方式进行处理,从而解决在现实世界中限制条件可能存在的问题,实验结果表明,我们的方法能够在处理嘈杂的限制条件时取得相当大的 BLEU 收益,这些结果使我们能够将所提出的方法应用于不需要用户帮助生成限制条件的新场景中并证明了该方法确实能够提高自动生成的约束下的翻译质量。
Aug, 2019
本文提出了一种新的方法,通过训练步骤来鼓励神经机器翻译满足词汇约束,其主要包括训练数据扩充、约束词汇掩码和交叉熵损失函数修改三个方面,实验表明该方法在 BLEU 分数和生成约束词汇的数量方面均优于其他算法。
Jun, 2021
本文提出了 DICTDIS,一种词汇约束的神经机器翻译系统,它通过在训练数据中使用多个字典候选项来鼓励消歧。作者对新闻、金融、医疗和工程等多个领域的英语 - 印地语句子进行了广泛的实验,表明 DICTDIS 在所有领域中都具有优异的消歧性能,在某些领域中的流畅性提高了 4 个 BLEU 分数,相比于现有的词汇约束和非约束的 NMT 方法。
Oct, 2022
本研究描述了基于有限状态机和多堆栈解码的受约束神经机器翻译解码方法,支持目标端约束以及对应对齐输入文本跨度的约束条件,在多个翻译任务上表现出较好的性能,通过注意力受约束解码的方式减少用户约束翻译时的错置和重复。
May, 2018
本文提出了一种基于模板的方法,通过重新排列约束和非约束 token 的生成,实现高质量和高匹配精度的翻译结果,同时推断速度与非约束 NMT 模型相当,不需要对模型架构和解码算法作任何更改。实验结果表明,所提出的模板方法在词汇和结构约束翻译任务中优于几个代表性的基线。
May, 2022
该研究提出了一种直接将词汇约束集成到神经机器翻译模型中的方法,通过将词汇约束向量化为连续的键和值,并利用 NMT 模型的注意力模块来表征词汇约束对,并在四种语言对上表明了该方法的优越性。
Mar, 2022
该论文旨在介绍一种新的机器翻译解码算法 —— 词汇约束解码法,该算法能够快速而准确地在输出中包含预定的单词和短语,并探索模型与 BLEU 得分之间的关系,与此同时它还能够极大地优化计算复杂性。
Apr, 2018