神经机器翻译中的连续优化解码
本研究描述了基于有限状态机和多堆栈解码的受约束神经机器翻译解码方法,支持目标端约束以及对应对齐输入文本跨度的约束条件,在多个翻译任务上表现出较好的性能,通过注意力受约束解码的方式减少用户约束翻译时的错置和重复。
May, 2018
提出了一种新的神经机器翻译模型,利用目标序列上下文的结构预测来引导翻译,从而使之摆脱顺序约束,实现了重复减少和跨长度翻译的鲁棒性,相较于当前最优方法有着更为优越的效果表现。
Jun, 2018
本文提出了一种可训练的解码算法,通过观察和操作神经机器翻译解码器的隐藏状态来最大化任意解码目标,使用确定性策略梯度对其进行培训,在四个语言对和两个解码目标上进行广泛评估,证明我们确实可以训练出一个可训练的贪婪解码器,从而以最小的计算开销生成更好的译文。
Feb, 2017
该论文旨在介绍一种新的机器翻译解码算法 —— 词汇约束解码法,该算法能够快速而准确地在输出中包含预定的单词和短语,并探索模型与 BLEU 得分之间的关系,与此同时它还能够极大地优化计算复杂性。
Apr, 2018
本研究提出了一种将传统 SMT 模型与神经机器翻译相结合的方法,从而提高翻译质量。该方法利用现有的基于短语的 SMT 模型计算基于短语的解码成本,并将其用于重新排列 n 个最佳 NMT 输出。研究表明,利用强制解码成本对 NMT 输出进行排序可以成功提高四种不同语言的翻译质量。
Nov, 2017
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
机器翻译中心于神经机器翻译的 MAP 解码,本文提出基于近期普及的基于参考文本和无参考文本翻译质量评估研究成果,包括 n-best 重排序和最小贝叶斯风险解码等,实现了基于质量的神经机器翻译解码,经过多组数据集比较和人工评估,结果表明质量感知的神经机器翻译解码性能优于基于 MAP 的解码方法,且代码已公开。
May, 2022
通过为神经机器翻译(Neural MT)编码器和注意力机制添加动态构建的机制来解决同时翻译的问题,我们提出了一种可调节的代理策略,用于根据用户定义的 BLEU 损失和平均比例(AP)约束,决定最佳分段策略,这种代理可在低延时的情况下优化 BLEU 表现,并且在数据驱动的改进方面更好地匹配了增量解码框架。
Jun, 2018
本文提出了一种使用 Gumbel-Greedy Decoding 训练生成网络来预测翻译的方法,该方法使用 Gumbel-Softmax 重新参数化来实现对离散单词序列的可微分训练,实验证明其有效性。
Jun, 2017
本文介绍了在神经机器翻译解码中利用部分假设等价性的概念,引入了重新组合,使用简单的 n-gram 后缀等价函数并将其调整为波束搜索解码,经过中英文和英德文大规模翻译任务的实验表明,该方法可以在更小的波束大小下获得相似的翻译质量,从而使 NMT 解码更加高效。
Aug, 2018