神经机器翻译的束搜索策略
本文探讨是否可以将 Beam Search 替换为更强大的以度量为驱动的搜索技术。通过对多个解码算法的探索和分析,发现最佳算法取决于目标度量的特性;作者提出的基于 Monte-Carlo Tree Search (MCTS) 的搜索方法在语言应用中具有很高的应用价值,为今后的研究方向提供了新视角。
Apr, 2021
本文以神经序列模型为基础,结合 Beam Search 和 Depth-first Search 算法,提出了一种精确的推理过程,并使用该过程在 WMT15 英德句子翻译测试集上找到了 Transformer 模型的全局最佳模型分数,揭示神经模型在适当考虑翻译准确性方面存在严重问题。论文发现,Beam Search 算法无法在大多数情况下找到全局最佳模型分数,很多情况下模型更倾向于返回空白翻译结果,这源自于神经模型中天然的对短句子的偏好。
Aug, 2019
本文研究如何利用上下文感知的翻译模型在解码时最佳应用。通过对比使用标准自动指标和三个标准的文档级翻译基准测试上的特定语言现象,我们发现大多数常用的解码策略表现相似,并且更高质量的上下文信息有潜力进一步改善翻译效果。
Jun, 2023
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本文提出了几种方法解决 beam search 的扩展导致的机器翻译质量下降的问题,讨论了这些方法的最优停止准则,并展示了无超参数方法在中英翻译中的优异表现,超过了使用长度规范化启发式方法的 BLEU 值 2.0,并在所有方法中获得了最佳结果。
Aug, 2018
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
本文提出了一种灵活的新方法,利用一个小型的神经网络 actor 来观测和操纵先前训练的解码器的隐藏状态,以无需额外的计算成本获得几乎全部的 beam search 带来的好处。我们介绍了使用一个伪并行语料库来训练 actor 网络,它是以类似于 BLEU 的目标质量指标对基础模型的 beam search 输出排名而生成的。我们的方法受到了早期研究的启发,但不需要强化学习,并且可以可靠地在各种模型上训练。在三个平行语料库和三个架构上的实验表明,该方法可以使翻译质量和速度大大提高,超过每个基础系统。
Apr, 2018
该论文旨在介绍一种新的机器翻译解码算法 —— 词汇约束解码法,该算法能够快速而准确地在输出中包含预定的单词和短语,并探索模型与 BLEU 得分之间的关系,与此同时它还能够极大地优化计算复杂性。
Apr, 2018
本篇论文提出了动态神经机器翻译 (Dynamic NMT) 的方法,通过对测试句子进行微调以适应具体场景,从而显着提高翻译性能。该方法特别适用于高度相似的句子。
Sep, 2016