通过修改增量性的分块束搜索策略,本文提出了一种用于控制质量 - 延迟权衡的方法,并应用于在线和离线翻译模型,实验结果表明在 MuST-C 数据集上 BLEU 指标提升 0.6-3.6,延迟降低 0.8-1.4 秒。
Sep, 2023
本文提出一种用于自适应 SimulMT 训练的有效方案,通过向训练语料库中添加自适应前缀对前缀的语句,来缓解 Wait-K 策略的两个主要限制,实验证明该方法在翻译质量和延迟方面优于所有强基准线。
Apr, 2022
提出了增量 Transformer 结合平均嵌入层(AEL)加快计算速度、传统 Transformer 作为增量 Transformer 的 teacher 通过知识蒸馏在模型中加入未来信息进行未来导向训练的方法,在汉英和德英同时翻译任务中与 wait-k 策略对比实验证明,该方法能够有效提高训练速度约 28 倍,并在模型中隐式地嵌入一些预测能力,获得更好的翻译质量。
Dec, 2020
本论文提出了一种基于 Mixture-of-Experts Wait-k 机制的通用即时翻译模型,采用多头注意力实现专家混合,每个专家根据其自己的等待词数被认为是 wait-k 专家,并根据测试延迟和源输入调整专家权重以产生最佳翻译,可以在任意延迟下实现最佳翻译质量,实验结果表明,该方法优于现有方法。
Sep, 2021
本文提出了一种利用二分查找在线构建最佳策略的方法来实现并行句子翻译的优化,通过显式监管来实现最优策略的学习,从而在所有延迟情况下超越了强基线。
May, 2023
该研究提出了一种基于前缀的预测模型,采用 wait-k 策略来实现当前缀的翻译,并在中英文和德英文四个方向上实现了较低的延迟和合理的质量。
Oct, 2018
研究了使用 Wait-k 解码器在资源匮乏的情况下进行同声传译的行为,同时通过使用单向编码器和训练多个 K 值来提高模型的训练,并探讨了 2D 卷积体系结构在同声翻译方面的应用。
May, 2020
提出了一种简单的监督学习框架,从并行文本生成的 oracle READ / WRITE 序列中学习自适应策略来结合固定延迟策略和自适应策略的优点以实现更好的 BLEU 分数和相似的延迟,同时无需重新训练基础的神经机器翻译模型。
Sep, 2019
本文提出了通过改进灵活的 beam-search decoder 来加速神经机器翻译的方法,并测试表明,该方法可以提高速度,同时不影响翻译质量。
Feb, 2017
本文提出了一种可证明为最优的波束搜索算法,该算法可用于神经文本生成中,如神经机器翻译、摘要和图像字幕生成,通过引入有界长度奖励机制,避免了短假设的问题并提高了 BLEU 分数。
Aug, 2018