正则化上下文门控制在 Transformer 机器翻译中的应用
为解决传统神经机器翻译技术所存在的译文质量缺陷问题,我们提出了一种名为 context gates 的动态控制算法,旨在更加细致地控制源与目标语境对目标词汇生成的影响比率,实验结果显示较传统注意力机制神经机器翻译系统提升 2.3 BLEU 分数。
Aug, 2016
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文研究使用多编码器和两个注意力机制以读取当前和先前句子以融入上下文的神经机器翻译(NMT)的文档级上下文问题,提出了一种权重共享方法,并得出结论,当在 NMT 中作为解码器状态插入目标端上下文时,目标端上下文也是有用的。
Sep, 2019
本研究探索了基于上下文感知框架的神经机器翻译系统,研究发现标准 Transformer 自回归属性可以同时带来一致性和误差积累的优势和劣势,因此提出了一种简单的基于长短时记忆的自注意力机制用于捕捉长距离依赖并减少误差传播,在两个公开数据集上验证可以获得较高 BLEU 得分并捕捉语篇现象。
Sep, 2020
本文提出了一种新的 GRU 门控注意力模型,可以通过使源表示对编码器状态敏感,从而增强了上下文向量的区分度,实现了对目标单词的区分性预测,并在 NIST 中英翻译任务中取得了显著的改进。
Apr, 2017
通过使用源上下文信息优化的翻译模型以提高机器翻译性能,我们提出了一种使用目标上下文信息的新颖扩展,令人惊讶的是,我们证明可以将该模型直接高效地集成在解码过程中,我们的方法可以应用于大规模训练数据,对四种语言对的语言翻译质量有一致提高,我们提供了分析,比较基线基于源上下文模型的优势,以及我们扩展的源上下文和目标上下文模型,结果显示,我们的扩展可以更好地捕捉形态学一致性。
Jul, 2016
本文探讨了如何通过翻译相关的背景句子,指导神经机器翻译系统上下文修正性别偏见后,显著提高其翻译性能;同时提出一种新的度量标准来评估大型预训练模型在使用上下文进行翻译时修正偏见的敏感度。
May, 2022
提出了一种基于 Kullback-Leibler 散度规则的神经机器翻译(NMT)正则化方法,并采用联合训练策略,将左到右和右到左 NMT 解码器改进互动方式,从而有效提高了中英文和英德翻译任务的表现。
Aug, 2018
本文提出了一种基于上下文的翻译方法,并探究了历史上下文信息对神经机器翻译性能的影响。实验结果表明,该方法相较于基于注意力机制的神经机器翻译系统,能够显著提高翻译质量 + 2.1 BLEU points。
Apr, 2017
本文提出了一种同时在表示层和梯度层面上正则化神经机器翻译(NMT)模型的方法,以解决多语言 NMT 在零 - shot 翻译中出现偏离目标语言及低质量翻译的问题,并在 WMT 和 OPUS 数据集上实现了 5.59 和 10.38 BLEU 的性能提升。
Sep, 2021