利用长度感知框架降低同时机器翻译中的位置偏见
我们提出了一种基于置信度的同传机器翻译框架(CBSiMT),通过利用模型置信度来察觉幻觉标记,并通过加权的前缀对前缀训练来减轻它们的负面影响。实验结果表明我们的方法可以在大多数延迟范围内持续提高翻译质量,低延迟时提高 2 个 BLEU 分数。
Nov, 2023
该研究提出了一种新方法,通过课程学习以逐步减少可用的源信息,从而实现从序列到序列训练到前缀到前缀训练的过渡,以增强同步机器翻译模型的翻译能力。实验证明,该方法优于强基准模型。
Sep, 2023
在这篇论文中,我们介绍了一种名为 Decoder-only Streaming Transformer (DST) 的 Decoder-only SiMT 模型,该模型通过编码源前缀和目标前缀的位置来确保目标前缀的位置不受源前缀扩展的影响,并通过 Streaming Self-Attention 机制获取翻译策略来生成翻译,实验证明我们的方法在三个翻译任务中实现了最先进的性能。
Jun, 2024
本文提出了 Gaussian Multi-head Attention(GMA)模型,用于开发一种新的 SiMT 策略,并通过模拟对齐和翻译来实现对齐的学习,该方法在 En-Vi 和 De-En 任务中的实验表明,它在翻译和延迟之间的权衡上优于强基线。
Mar, 2022
同时机器翻译(SiMT)通过阅读源语句来生成目标翻译,在确定最佳时机阅读句子和生成翻译的策略方面,现有的 SiMT 方法通常采用传统的 Transformer 架构,虽然它们擅长确定策略,但其翻译性能却不够优化。相反,基于丰富语料库训练的大型语言模型(LLMs)具有卓越的生成能力,但它们很难通过 SiMT 的训练方法获得翻译策略。因此,我们引入 Agent-SiMT,这是一个将 LLMs 和传统 SiMT 方法的优势结合起来的框架。Agent-SiMT 包含策略决策代理和翻译代理。策略决策代理由一个 SiMT 模型管理,使用部分源语句和翻译来确定翻译策略。而翻译代理则利用 LLM 基于部分源语句生成翻译。这两个代理共同合作完成 SiMT。实验证明,Agent-SiMT 达到了最先进的性能。
Jun, 2024
同时机器翻译 (SiMT) 使用一个策略来确定最佳的阅读和生成单词的时机。我们提出了 SiLLM,将 SiMT 任务分解为策略决策和翻译子任务,并引入了大型语言模型 (LLM)。两个代理协作完成 SiMT,最终实现了最新技术水平的性能表现。
Feb, 2024
本文旨在研究如何利用视觉信息来弥补缺失的源文本背景,评估不同的多模态方法和视觉特征对最先进的同时机器翻译 (SiMT) 框架的影响。结果表明,视觉背景是有帮助的,基于明确的物体区域信息的可视化模型优于常用的全局特征,在低延迟情境下的表现可提高 3 个 BLEU 分数。我们的定性分析展示,只有多模态系统才能正常翻译英语到标记性别的语言,并处理英语和法语之间的形容词和名词词序等差异。
Sep, 2020
该研究提出并探索了使用单语数据来提高同时机器翻译的质量,并提出了新的单语抽样策略,以避免 SiMT 中的幻觉问题,实验表明新策略可以显著提高翻译质量。
Dec, 2022
提出了一种通过修改参考文献并使用强化学习方法进行个性化训练的新方法,用于改进不同延迟下训练的同传机器翻译模型的性能。实验证明,该方法在固定和自适应策略下都取得了最先进的性能。
Oct, 2023