本文提出一种用于自适应 SimulMT 训练的有效方案,通过向训练语料库中添加自适应前缀对前缀的语句,来缓解 Wait-K 策略的两个主要限制,实验证明该方法在翻译质量和延迟方面优于所有强基准线。
Apr, 2022
提出了一种简单的监督学习框架,从并行文本生成的 oracle READ / WRITE 序列中学习自适应策略来结合固定延迟策略和自适应策略的优点以实现更好的 BLEU 分数和相似的延迟,同时无需重新训练基础的神经机器翻译模型。
Sep, 2019
该研究提出了一种基于前缀的预测模型,采用 wait-k 策略来实现当前缀的翻译,并在中英文和德英文四个方向上实现了较低的延迟和合理的质量。
Oct, 2018
该研究提出了一种新方法,通过课程学习以逐步减少可用的源信息,从而实现从序列到序列训练到前缀到前缀训练的过渡,以增强同步机器翻译模型的翻译能力。实验证明,该方法优于强基准模型。
Sep, 2023
本文提出了一种利用二分查找在线构建最佳策略的方法来实现并行句子翻译的优化,通过显式监管来实现最优策略的学习,从而在所有延迟情况下超越了强基线。
May, 2023
通过简单的启发式组合一组固定策略,我们设计了一种算法来实现自适应策略,实验结果显示我们的自适应策略可以在相同延迟下比固定策略多达 4 个 BLEU 分数,并且甚至在贪心模式下超过了全句翻译的 BLEU 分数(接近 beam 模式),但延迟更低。
Apr, 2020
本文提出了一种将后评估集成到固定策略中的方法,通过测量源内容的变化来评估下一个操作的合理性,并根据评估结果采取不同的操作,这种自适应策略在三项翻译任务中均优于强基准线。
Oct, 2022
本研究介绍了一种使用延迟标记和受限动态 Oracle 进行简化训练的单模型策略进行同时翻译优化, 实验结果表明,相比固定和强化学习策略,该方法能够实现更好的 BLEU 分数和更低的延迟。
Jun, 2019
本论文提出了一种基于神经机器翻译的实时翻译框架,通过代理决策来实现翻译输出实时化并且具有可控的翻译质量与延迟,通过在两种语言对上的实验结果表明了该方法在定量与定性方面的有效性。
Oct, 2016
研究表明,在同时机器翻译中,使用词级操作的策略优于子词级操作的策略,并且提出了一种使用语言模型提升翻译模型的方法。
Oct, 2023