基于中间语言级联翻译模型的端到端训练与解码
介绍了基于枢轴语言的神经机器翻译的联合训练算法,通过提出三种方法来连接两个模型并在训练期间使其相互交互,实验表明,与独立训练相比,源 - 枢轴和枢轴 - 目标模型的联合训练在各种语言中都取得了显著的改进。
Nov, 2016
本文提出了三种有效的预训练策略来提高神经机器翻译的性能,通过使用一种中间语言来实现对原语言和目标语言对之间关系的增强,从而在 WMT 2019 的 法德和德捷语任务中超过了多语言模型,同时优化了零样本 / 零资源情境下的翻译效果。
Sep, 2019
本文提出了一种端到端的可训练语音翻译模型,通过优化所有 ASR 和 MT 模型的参数而避免级联模型中的误差传播,并且通过使用人工神经网络实现 backpropagation 传递误差以实现同时提供转录和翻译,对于四个不同数据场景的实验表明,该模型在 BLEU 和 TER 方面均优于传统级联模型和直接模型。
Nov, 2020
通过多任务训练,提出了一种使用两个注意力机制的端到端可训练模型,用于直接语音翻译。该模型明显优于其他基线模型,并能更有效地利用辅助训练数据,特别适合于多任务训练。
Apr, 2019
大规模多语言机器翻译模型在一种模型中翻译大量语言,但在低资源和非常低资源的翻译方向上的性能有限。在这篇论文中,我们重新审视通过多个语言进行枢轴翻译的方法。我们提出了 MaxEns 作为一种组合策略,偏向于最自信的预测,以减少翻译中出现的幻觉问题。通过在 FLORES 基准测试中评估不同策略,我们证明 MaxEns 提高低资源语言的翻译质量,同时减少翻译中的幻觉,相对于直接翻译和平均方法。平均而言,多枢轴策略仍然落后于使用英语作为单个枢轴语言,这引发了如何为特定翻译方向确定最佳枢轴策略的问题。
Nov, 2023
本文提出了一种基于图片引导的无资源机器翻译渐进式学习方法,从词级别开始逐步学习,最终将学习到的词汇级别的翻译应用在句子级别的翻译上,从而有效减少了图片噪声对模型学习的干扰,在两个广泛使用的基于图像引导的翻译数据集上,该方法明显优于其他最先进的方法。
Jun, 2019
本文通过基于 Transformer 的语言模型提出了一种利用多语言平行文本自动生成同义词的简单统一模型,可以在一步中实现无监督同义词生成。该模型相较于中文中的折叠法方法,其生成的同义词更加相似,并且能够在大规模未对齐的语料库上进行预训练。同时,利用噪声自编码器机制还可以提高模型的多样性和鲁棒性。实验结果表明,该模型在同义词关系、多样性、流畅度和效率等方面均优于折叠法。
Nov, 2019
本文提出了基于 Interlingua 的神经编码 - 解码模型,通过一个桥接(pivot)语言实现从源语言到目标语言的转化。该方法在桥接转写和桥接字幕生成任务上取得了良好的效果。
Jun, 2016
本文提供了一种使用视觉空间中的多模态支点改善图像描述的统计机器翻译方法。通过在一个用目标语言描述的图像数据库中执行图像检索,并使用最相似图像的描述进行跨语言重新排序,达到优化的效果。本方法不依赖于大量域内平行数据的可用性,而仅依赖于大量单语言字幕图像数据集的可用性,以及用于计算图像相似性的最先进的卷积神经网络。我们的实验评估显示,与强基线相比,我们的方法提高了 1 个 BLEU 分数。
Jan, 2016