本文旨在研究如何利用视觉信息来弥补缺失的源文本背景,评估不同的多模态方法和视觉特征对最先进的同时机器翻译 (SiMT) 框架的影响。结果表明,视觉背景是有帮助的,基于明确的物体区域信息的可视化模型优于常用的全局特征,在低延迟情境下的表现可提高 3 个 BLEU 分数。我们的定性分析展示,只有多模态系统才能正常翻译英语到标记性别的语言,并处理英语和法语之间的形容词和名词词序等差异。
Sep, 2020
本论文提出了一种基于 Mixture-of-Experts Wait-k 机制的通用即时翻译模型,采用多头注意力实现专家混合,每个专家根据其自己的等待词数被认为是 wait-k 专家,并根据测试延迟和源输入调整专家权重以产生最佳翻译,可以在任意延迟下实现最佳翻译质量,实验结果表明,该方法优于现有方法。
Sep, 2021
同时机器翻译(SiMT)通过阅读源语句来生成目标翻译,在确定最佳时机阅读句子和生成翻译的策略方面,现有的 SiMT 方法通常采用传统的 Transformer 架构,虽然它们擅长确定策略,但其翻译性能却不够优化。相反,基于丰富语料库训练的大型语言模型(LLMs)具有卓越的生成能力,但它们很难通过 SiMT 的训练方法获得翻译策略。因此,我们引入 Agent-SiMT,这是一个将 LLMs 和传统 SiMT 方法的优势结合起来的框架。Agent-SiMT 包含策略决策代理和翻译代理。策略决策代理由一个 SiMT 模型管理,使用部分源语句和翻译来确定翻译策略。而翻译代理则利用 LLM 基于部分源语句生成翻译。这两个代理共同合作完成 SiMT。实验证明,Agent-SiMT 达到了最先进的性能。
Jun, 2024
本文提出了一种将翻译过程分解为单调翻译和重新排序步骤的新框架,并通过辅助排序网络模型来模拟其中的重新排序步骤,从而提高了同时翻译模型的翻译效果。
Jan, 2022
通过模拟多重参考训练(SMRT)来近似表示可能的翻译,从而训练机器翻译(MT)模型,以缓解低资源环境下数据稀疏问题,并在翻译为英语时实现了 1.2 到 7.0 BLEU 的提高(机器翻译评价指标)。研究还发现 SMRT 和回译相互补充。
Apr, 2020
该研究提出了一种新方法,通过课程学习以逐步减少可用的源信息,从而实现从序列到序列训练到前缀到前缀训练的过渡,以增强同步机器翻译模型的翻译能力。实验证明,该方法优于强基准模型。
Sep, 2023
本研究探索了两个主要概念,即使用自适应策略来学习高翻译质量和低延迟之间的平衡,以及使用可用于生成文本输入之前的附加(视觉)上下文信息来支持该过程,提出了一种多模式方法来进行同时机器翻译,并采用强化学习策略,应用于代理程序和环境中集成视觉和文本信息,研究了不同类型的视觉信息和集成策略对同时翻译模型质量和延迟的影响,并证明了视觉线索可以在保持延迟低的同时提高质量。
Feb, 2021
该研究提出并探索了使用单语数据来提高同时机器翻译的质量,并提出了新的单语抽样策略,以避免 SiMT 中的幻觉问题,实验表明新策略可以显著提高翻译质量。
Dec, 2022
同时机器翻译 (SiMT) 使用一个策略来确定最佳的阅读和生成单词的时机。我们提出了 SiLLM,将 SiMT 任务分解为策略决策和翻译子任务,并引入了大型语言模型 (LLM)。两个代理协作完成 SiMT,最终实现了最新技术水平的性能表现。
Feb, 2024
本文提出一种用于自适应 SimulMT 训练的有效方案,通过向训练语料库中添加自适应前缀对前缀的语句,来缓解 Wait-K 策略的两个主要限制,实验证明该方法在翻译质量和延迟方面优于所有强基准线。
Apr, 2022