提出了一种用于机器翻译的神经网络模型,其能够动态决定何时继续输入源文本或生成翻译文本,通过使用单向或双向编码器来处理实际语音和文本输入,使用词对齐方法生成分块训练数据,并在 IWSLT 2020 英 - 德任务上优于 wait-k 基线 2.6 到 3.7% BLEU 中的结果。
May, 2020
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
该研究通过改进基于 Transformer 的异步分段双向解码策略,以提高翻译效率和准确性。实验结果表明,在处理长句子方面,与传统的单向翻译方法相比,我们的方法表现出更高的效率和改善的翻译质量。此外,研究还分析了句子长度对解码结果的影响,并探讨了模型在不同场景中的性能。这项研究的发现不仅为 NMT 领域提供了一种有效的编码策略,而且为未来的研究开辟了新的途径和方向。
Feb, 2024
提出了一种新的神经机器翻译模型,利用目标序列上下文的结构预测来引导翻译,从而使之摆脱顺序约束,实现了重复减少和跨长度翻译的鲁棒性,相较于当前最优方法有着更为优越的效果表现。
Jun, 2018
我们提出了一种新的机制来将源信息分成已翻译的过去内容和未翻译的未来内容,并使用两个附加的循环层对其进行建模,从而为神经机器翻译系统提供已翻译和未翻译内容的知识,实验结果表明,该方法显著改善了中英、德英和英德翻译任务的翻译性能,具体来说,该模型在翻译质量和对齐误差率方面优于传统的覆盖模型。
Nov, 2017
本研究提出了同步双向神经机器翻译模型,通过同时进行从左到右和从右到左解码,以相互交互的方式预测输出,从而利用历史和未来信息,并在大规模数据上实验证明其优于强的 Transformer 模型,达到了中英文和英德文翻译任务的最新性能。
May, 2019
本文提出了一种新的基于分块的 $k$NN-MT 模型,在机器翻译领域中具有显著的速度优势,同时实现了对域适应能力的支持。
May, 2022
本论文研究了如何通过采用轻量级解码器和词汇筛选来加速多语言神经机器翻译的推理速度,而不影响翻译质量,使用 BLEU 和 chrF 进行实验验证,并进行了健壮性评估和人类评估。
Sep, 2021
本文提出了一种更高效的字符级神经机器翻译解码方法,使用词和字符级别的分层解码结构,能够优化机器翻译性能并学习更长的上下文和语法依赖。
Oct, 2019
本文提出了一种名为多尺度协作(MultiScale Collaborative)的框架,通过引入块尺度协作机制和上下文尺度协作增强梯度反向传播,并让每个编码器块学习细粒度的表示,以增加神经机器翻译模型的深度,从而提高翻译质量,并在多项任务中证明了该方法的有效性。
Apr, 2020