数据驱动的自适应同时机器翻译
本论文提出了一种基于 Mixture-of-Experts Wait-k 机制的通用即时翻译模型,采用多头注意力实现专家混合,每个专家根据其自己的等待词数被认为是 wait-k 专家,并根据测试延迟和源输入调整专家权重以产生最佳翻译,可以在任意延迟下实现最佳翻译质量,实验结果表明,该方法优于现有方法。
Sep, 2021
该研究提出了一种基于前缀的预测模型,采用 wait-k 策略来实现当前缀的翻译,并在中英文和德英文四个方向上实现了较低的延迟和合理的质量。
Oct, 2018
同时机器翻译中,我们提出一种通过将自适应策略模型与翻译模型分离的灵活方法,引入了基于潜在的翻译分布差异的 DaP(基于分歧的自适应策略),以在翻译准确性和延迟之间提供更好的平衡,表现优于现有方法。
Oct, 2023
本文调查了如何将同步文本翻译方法与同时语音翻译相结合,并通过引入预决定模块来适应于端到端的同时语音翻译。同时,对将固定和灵活的预决策与固定和灵活的策略相结合的延迟质量权衡进行了详细分析。作者还设计了一种新的计算感知的延迟度量方法,该方法从平均滞后进行调整。
Nov, 2020
提出了一种简单的监督学习框架,从并行文本生成的 oracle READ / WRITE 序列中学习自适应策略来结合固定延迟策略和自适应策略的优点以实现更好的 BLEU 分数和相似的延迟,同时无需重新训练基础的神经机器翻译模型。
Sep, 2019
提出了增量 Transformer 结合平均嵌入层(AEL)加快计算速度、传统 Transformer 作为增量 Transformer 的 teacher 通过知识蒸馏在模型中加入未来信息进行未来导向训练的方法,在汉英和德英同时翻译任务中与 wait-k 策略对比实验证明,该方法能够有效提高训练速度约 28 倍,并在模型中隐式地嵌入一些预测能力,获得更好的翻译质量。
Dec, 2020
研究了使用 Wait-k 解码器在资源匮乏的情况下进行同声传译的行为,同时通过使用单向编码器和训练多个 K 值来提高模型的训练,并探讨了 2D 卷积体系结构在同声翻译方面的应用。
May, 2020
本文提出了一种自适应前缀训练策略(LEAPT),使机器翻译模型学习如何翻译源前缀并利用未来上下文,实验证明相比竞争基线表现更好并取得了良好的结果。
Mar, 2023