- LLMs 是零射击上下文感知的同时翻译器
大型语言模型在同时机器翻译任务中表现出与某些最先进基准系统相当或更好的性能,并且注入最少的背景信息(容易实现)可以进一步提高性能,尤其是在具有挑战性的技术主题上。这凸显了大型语言模型构建下一代大规模多语言、上下文感知和术语准确的同时翻译系统 - Agent-SiMT:基于大型语言模型的代理辅助同时机器翻译
同时机器翻译(SiMT)通过阅读源语句来生成目标翻译,在确定最佳时机阅读句子和生成翻译的策略方面,现有的 SiMT 方法通常采用传统的 Transformer 架构,虽然它们擅长确定策略,但其翻译性能却不够优化。相反,基于丰富语料库训练的大 - ACL仅解码流式变换器用于同声传译
在这篇论文中,我们介绍了一种名为 Decoder-only Streaming Transformer (DST) 的 Decoder-only SiMT 模型,该模型通过编码源前缀和目标前缀的位置来确保目标前缀的位置不受源前缀扩展的影响, - ACL自调整状态建模的同时机器翻译
利用自我修改状态建模的同时机器翻译(SM^2)训练范式,通过优化每个状态的决策,确保准确优化政策,并通过前缀采样实现充分探索潜在状态,同时保证与双向编码器兼容,从而提高翻译质量。
- 大语言模型在远距离语言对上的同声传译语料库构建
使用大型语言模型(LLM-SI-Corpus),将现有的语音翻译语料库转化为解释风格的数据,通过对 Simultaneous Machine Translation(SiMT)模型进行 fine-tuning,可以在减少延迟的同时保持与离线 - SiLLM:大型语言模型用于同步机器翻译
同时机器翻译 (SiMT) 使用一个策略来确定最佳的阅读和生成单词的时机。我们提出了 SiLLM,将 SiMT 任务分解为策略决策和翻译子任务,并引入了大型语言模型 (LLM)。两个代理协作完成 SiMT,最终实现了最新技术水平的性能表现。
- Conversational SimulMT: 大型语言模型的高效实时翻译
这篇论文提出了一种基于 LlM 的对话式 SimulMT 框架,通过多轮对话解码提高 LLM 的推理效率,在两个 SimulMT 基准测试中展示了 LLM 在翻译质量上的优越性以及与专用 SimulMT 模型相当的计算延迟。
- TransLLaMa: 基于 LLM 的同步翻译系统
经过小规模数据集上的微调后,预训练的开源解码器 - 仅模型可以通过生成特殊的 “等待” 标记直接控制输入分段,从而在同时翻译任务中达到与最先进基准模型相媲美的 BLEU 分数;尚未进行先前训练的闭源模型在此任务中显示出令人鼓舞的结果,为改进 - 语言模型是一种同时机器翻译的分支预测器
通过使用分支预测技术降低翻译延迟,我们的研究指出,结合分支预测技术可以在同时进行的机器翻译任务中减少翻译延迟,提高翻译质量和效率。
- 训练和测试中的上下文一致性与同步机器翻译
机器同时翻译(SiMT)旨在实时产生一个具有单调增长源侧上下文的部分翻译。然而,存在一个关于训练和测试之间上下文使用的反直觉现象:例如,以 wait-k 一致训练的 wait-k 测试模型在翻译质量方面明显劣于以 wait-k'(k' 不等 - CBSiMT: 基于加权前缀对前缀训练的同时翻译中减轻幻觉
我们提出了一种基于置信度的同传机器翻译框架(CBSiMT),通过利用模型置信度来察觉幻觉标记,并通过加权的前缀对前缀训练来减轻它们的负面影响。实验结果表明我们的方法可以在大多数延迟范围内持续提高翻译质量,低延迟时提高 2 个 BLEU 分数 - EMNLP基于词级策略的增强式同时机器翻译
研究表明,在同时机器翻译中,使用词级操作的策略优于子词级操作的策略,并且提出了一种使用语言模型提升翻译模型的方法。
- EMNLP非自回归流式 Transformer 用于同声翻译
提出了一种非自回归流式 Transformer(NAST)用于同时机器翻译(SiMT),通过通过一种新的编码器和非自回归解码器拓宽了读 / 写策略并降低延迟损失,实验证明 NAST 优于以往自回归 SiMT 基线模型。
- EMNLP自适应等待 -$k$ 模型的同时翻译策略
同时机器翻译中,我们提出一种通过将自适应策略模型与翻译模型分离的灵活方法,引入了基于潜在的翻译分布差异的 DaP(基于分歧的自适应策略),以在翻译准确性和延迟之间提供更好的平衡,表现优于现有方法。
- EMNLP定制参考语境的同时机器翻译
提出了一种通过修改参考文献并使用强化学习方法进行个性化训练的新方法,用于改进不同延迟下训练的同传机器翻译模型的性能。实验证明,该方法在固定和自适应策略下都取得了最先进的性能。
- 大语言模型的同时机器翻译
利用大型语言模型进行同传机器翻译,在训练推理不匹配的问题上引入了简单而有效的混合策略,并且通过在完整和前缀句子的混合训练上进行监督微调,实现了显著的性能改进,证明大型语言模型可以在翻译质量和延迟方面达到与专用同传机器翻译模型相当的水平。
- 同时机器翻译的展望
该研究提出了一种新方法,通过课程学习以逐步减少可用的源信息,从而实现从序列到序列训练到前缀到前缀训练的过渡,以增强同步机器翻译模型的翻译能力。实验证明,该方法优于强基准模型。
- ACL通过二分搜索学习同时机器翻译的最优策略
本文提出了一种利用二分查找在线构建最佳策略的方法来实现并行句子翻译的优化,通过显式监管来实现最优策略的学习,从而在所有延迟情况下超越了强基线。
- LEAPT: 学习自适应前缀到前缀转换,用于同时机器翻译
本文提出了一种自适应前缀训练策略(LEAPT),使机器翻译模型学习如何翻译源前缀并利用未来上下文,实验证明相比竞争基线表现更好并取得了良好的结果。
- 重新思考同步机器翻译测试集的合理性
本文介绍了同时机器翻译(SimulMT)模型,包括其与源语句的单调对齐、测试方法的缺陷、以及人工标注的单调测试集 SiMuST-C 的验证、自动提取的单调训练集的优化等。实验表明,自动提取的单调训练集可以为 SimulMT 模型带来高达 3