通过最小化与句法翻译格子相关的贝叶斯风险进行神经机器翻译
本篇论文研究神经机器翻译,提出使用最小贝叶斯风险解码优化翻译质量度量作为一种替代推论策略来优化自动翻译质量度量,实验结果表明,使用 BLEURT 作为质量度量指标产生的质量比传统 Beam-search 输出更好。
Nov, 2021
本研究分析了一种比 beam search 更有效的基于最小贝叶斯风险译码的决策规则,并设计了基于搜索和估计效用的成本分离近似算法,探讨了以模式为导向的策略对译文翻译的效果,实验证明这种方法在三种语言对中均能提高翻译质量。
Aug, 2021
本文研究了使用分层短语配对 SMT 网络在端到端的神经机器翻译(NMT)中的应用。通过权重推送将完整的翻译预测假设的 Hiero 分数,包括完整的翻译语法分数和完整的 n-gram 语言模型分数,转换为与 NMT 预测概率兼容的后验概率,并通过稍加修改的 NMT 波束搜索解码器,发现了比 Hiero 和 NMT 单独解码的改进,在扩展 NMT 到非常大的输入和输出词汇方面具有实际优势。
May, 2016
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本论文探讨神经机器翻译中的偏差以及在域偏移和样本干扰下的弱点,并找到应用最小贝叶斯风险解码对抗这些问题的方案。结果表明,这个方法虽然仍有长度和频率偏差,但同样增加了模型的鲁棒性,对样本干扰和域偏移具有更好的适应能力
May, 2021
本研究提出了一种将传统 SMT 模型与神经机器翻译相结合的方法,从而提高翻译质量。该方法利用现有的基于短语的 SMT 模型计算基于短语的解码成本,并将其用于重新排列 n 个最佳 NMT 输出。研究表明,利用强制解码成本对 NMT 输出进行排序可以成功提高四种不同语言的翻译质量。
Nov, 2017
本文提出了一种基于 SMT 的新颖方法,通过跨语言嵌入映射从单语料库中诱导短语表,再将其与 N-gram 语言模型相结合,通过无监督超参数微调的变体来实现迭代反向翻译,并在 WMT 2014 中实现了超过 7-10 BLEU 点的改进,与监督 SMT 相比关闭了 2-5 BLEU 点的差距。
Sep, 2018
本论文提出了一种将基于短语的统计机器翻译模型作为后验正则化引入到无监督神经机器翻译模型的训练过程中,以提高翻译质量的方法,并在 en-fr 和 en-de 翻译任务上进行实验,最终取得了新的最佳性能。
Jan, 2019
本研究提出使用最小贝叶斯风险编解码技术 (MBR) 来消除基于 beam search 算法的模型自信度导致的输出错误,并使用 GPU 批量计算贝叶斯风险值以加速解码,并在机器翻译中验证后期 MBR 解码的优越性。
Apr, 2017
本文提出使用离散的翻译词典,通过使用 NMT 模型的 attention 向量选择需要聚焦的源单词的词典概率,从而缓解 NMT 在翻译低频词汇时出现的错误,并进行了两种方法的实验,结果显示翻译质量(BLEU)得分有明显提高。
Jun, 2016