用于同时机器翻译的双读写路径建模
利用自我修改状态建模的同时机器翻译(SM^2)训练范式,通过优化每个状态的决策,确保准确优化政策,并通过前缀采样实现充分探索潜在状态,同时保证与双向编码器兼容,从而提高翻译质量。
Jun, 2024
同时机器翻译中,我们提出一种通过将自适应策略模型与翻译模型分离的灵活方法,引入了基于潜在的翻译分布差异的 DaP(基于分歧的自适应策略),以在翻译准确性和延迟之间提供更好的平衡,表现优于现有方法。
Oct, 2023
同时机器翻译 (SiMT) 使用一个策略来确定最佳的阅读和生成单词的时机。我们提出了 SiLLM,将 SiMT 任务分解为策略决策和翻译子任务,并引入了大型语言模型 (LLM)。两个代理协作完成 SiMT,最终实现了最新技术水平的性能表现。
Feb, 2024
本论文提出了一种基于 Mixture-of-Experts Wait-k 机制的通用即时翻译模型,采用多头注意力实现专家混合,每个专家根据其自己的等待词数被认为是 wait-k 专家,并根据测试延迟和源输入调整专家权重以产生最佳翻译,可以在任意延迟下实现最佳翻译质量,实验结果表明,该方法优于现有方法。
Sep, 2021
提出了一种简单的监督学习框架,从并行文本生成的 oracle READ / WRITE 序列中学习自适应策略来结合固定延迟策略和自适应策略的优点以实现更好的 BLEU 分数和相似的延迟,同时无需重新训练基础的神经机器翻译模型。
Sep, 2019
同时机器翻译(SiMT)通过阅读源语句来生成目标翻译,在确定最佳时机阅读句子和生成翻译的策略方面,现有的 SiMT 方法通常采用传统的 Transformer 架构,虽然它们擅长确定策略,但其翻译性能却不够优化。相反,基于丰富语料库训练的大型语言模型(LLMs)具有卓越的生成能力,但它们很难通过 SiMT 的训练方法获得翻译策略。因此,我们引入 Agent-SiMT,这是一个将 LLMs 和传统 SiMT 方法的优势结合起来的框架。Agent-SiMT 包含策略决策代理和翻译代理。策略决策代理由一个 SiMT 模型管理,使用部分源语句和翻译来确定翻译策略。而翻译代理则利用 LLM 基于部分源语句生成翻译。这两个代理共同合作完成 SiMT。实验证明,Agent-SiMT 达到了最先进的性能。
Jun, 2024
本文提出一种用于自适应 SimulMT 训练的有效方案,通过向训练语料库中添加自适应前缀对前缀的语句,来缓解 Wait-K 策略的两个主要限制,实验证明该方法在翻译质量和延迟方面优于所有强基准线。
Apr, 2022
本文提出了一种基于信息量的等待策略来平衡源语言信息和目标语言信息的机器翻译方法,用于在同时接收源输入和输出翻译结果时做出合理决策。实验结果表明,该方法在实现平衡方面表现出色,比其他基线方法效果更好。
Oct, 2022