机器翻译的迭代优化
本文提出了迭代翻译改进方法,利用大型语言模型处理自然语言任务并提升翻译质量。通过与 GPT-3.5 进行广泛测试,证明了通过迭代翻译改进方法可以将翻译质量提高至可与人类相媲美。
Jun, 2023
该研究提出了一种基于连续空间的非自回归机器翻译推理过程,采用连续潜在变量模型进行翻译,使用梯度优化方法在推理时逐步细化翻译,相比于现有方法在标记空间进行细化,该方法具备计算效率高、较高的边缘概率和 BLEU 评分等优势。
Sep, 2020
本文提出一种使用参数化的神经机器翻译目标函数的简单约束解码算法来改善翻译质量的方法,并在一个基准数据集上进行了验证,结果表明该算法在翻译质量和时间效率方面都优于现有方法。
Nov, 2022
本文提出一种新的神经机器翻译模型,通过避免自回归的特性,以并行方式生成输出,进而做到了比先前方法更低的延迟时间。通过知识蒸馏,潜在变量,以及多样本策略梯度微调等技术手段,几乎没有损失性能,达到了先进的翻译效果。
Nov, 2017
通过为神经机器翻译(Neural MT)编码器和注意力机制添加动态构建的机制来解决同时翻译的问题,我们提出了一种可调节的代理策略,用于根据用户定义的 BLEU 损失和平均比例(AP)约束,决定最佳分段策略,这种代理可在低延时的情况下优化 BLEU 表现,并且在数据驱动的改进方面更好地匹配了增量解码框架。
Jun, 2018
本文提出了一种在神经机器翻译中加入词汇约束的简单有效算法,该算法可以在推理时注入术语约束,而不影响解码速度,并且无需修改训练流程,使用自定义字典即可运行,实验结果表明,我们的方法在英德 WMT 数据集上可以提高基线和之前方法的翻译质量。
Apr, 2020
本研究提出了一种简单的词汇适应方案,以扩大多语言机器翻译模型的语言容量,为多语言机器翻译的高效连续学习铺平了道路。我们的方法适用于大规模数据集,适用于未见过脚本的远程语言,在原始语言对的翻译性能上只有轻微的降低,在仅拥有新语言的单语数据的情况下也提供了具有竞争力的性能。
Mar, 2021
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
通过使用大型预训练语言模型的零 - shot 翻译能力,结合少样本放大、去噪和回译等方法,成功地实现了最新的无监督神经机器翻译模型,在 WMT14 英法数据集上获得了 BLEU 42.1 的最高性能表现。
Oct, 2021