基于显著性的神经机器翻译词对齐解释
提出一种基于 Transformer 架构的简单模型扩展,利用其隐藏表示,仅限于对编码器信息进行注意以预测下一个单词,进一步介绍了一种新的对齐推断过程,直接将目标词的注意力激活率优化为对齐结果,这种对齐方法在两个公开数据集上明显优于 naive 方法,并且与 Giza++ 相当。
Jan, 2019
本文提出了一种有效的方法来偏置序列到序列神经机器翻译模型(NMT)的注意机制,使其趋向于研究过的词对齐模型。我们展示了我们的新型引导对齐训练方法如何在真实生活的电商文本翻译中提高了翻译质量,克服了许多未知单词和大型类型 / 令牌比。我们还表明,与输入文本相关的元数据(例如主题或类别信息)作为网络解码器部分的附加信号可显着提高翻译质量。有了这两个新功能,NMT 系统在一个产品标题集上的 BLEU 分数从 18.6 提高到 21.3%。通过将通用领域 NMT 系统进行领域适应也可获得更大的机器翻译质量提升。这个开发的 NMT 系统在 IWSLT 语音翻译任务中也表现良好,其中四个变体系统的集合比基线的基于短语的系统的 BLEU 分数提高了 2.1%。
Jul, 2016
本文介绍了一种用 Transformer 模型进行机器翻译和单词对齐的方法,实现了较高的翻译与对齐准确率,同时在多项测试中优于之前的 Transformer 模型单词对齐方法。
Sep, 2019
本文提出利用训练句子对齐来提高神经机器翻译的关注或对齐准确性,通过将机器关注与 “真实” 对齐之间的距离计算,并在训练过程中最小化此代价,我们的实验证明,相对于大型词汇神经机器翻译系统,我们的模型显著提高了翻译和对齐质量,超越了最先进的传统基于语法的系统。
Jul, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
在许多对多神经机器翻译中,使用单词级对比目标来利用单词对齐具有 0.8 BLEU 提升,并发现编码器的句子检索性能与翻译质量高度相关,这解释了所提出方法的影响所在,从而为未来的深入研究提出了动机。
Apr, 2022
本论文研究了注意力机制在神经机器翻译中生成对齐的问题,并从重新排序方面分析和解释了这个问题。提出了一种受传统对齐模型指导学习的监督注意力机制,实验表明,这种机制比标准注意力机制产生更好的对齐效果,并且在中英文翻译任务中均有显著提高。
Sep, 2016
利用新型鉴别性词汇对齐模型,结合变压器机器翻译模型,在少量标注例子下评估英汉及英阿拉伯语言对齐,相比无监督基线模型性能得到提升(11-27 F1)。外部方面,通过对中文命名实体识别(NER)标签的投影,我们验证了对齐模型的有效性。最后,进行消融分析和注释实验,支持未来手动对齐的使用可行性和实用性。
Sep, 2019
本文介绍了一种基于注意力机制的神经机器翻译模型,该模型通过暂时性存储对齐信息和调节注意力值的方法,提高了翻译效果, 在两种语言对上的大规模实验中,该方法不仅超越了基线 NMT 模型,还比其他相关方法表现更出色,甚至有些情况下在不使用集成的情况下也能胜过 SMT 基准。
Aug, 2016
提出了一种用于机器翻译的神经网络模型,其能够动态决定何时继续输入源文本或生成翻译文本,通过使用单向或双向编码器来处理实际语音和文本输入,使用词对齐方法生成分块训练数据,并在 IWSLT 2020 英 - 德任务上优于 wait-k 基线 2.6 到 3.7% BLEU 中的结果。
May, 2020