利用句子上下文进行神经机器翻译
本文提出了一种基于上下文的翻译方法,并探究了历史上下文信息对神经机器翻译性能的影响。实验结果表明,该方法相较于基于注意力机制的神经机器翻译系统,能够显著提高翻译质量 + 2.1 BLEU points。
Apr, 2017
本文提出了一种新的神经机器翻译方法,采用层聚合和多层注意力机制,通过引入辅助正则化项促进不同层捕获多样化信息,实验结果表明该方法在 WMT14 英德和 WMT17 中英数据上具有普适性与有效性。
Oct, 2018
通过引入全局上下文,我们提出了一种新的文档级 NMT 框架,用于处理包含任意数量句子的文档,并且可以在标准数据集上优雅地训练,结果表明我们的模型优于 Transformer 基线和之前的文档级 NMT 模型。
Feb, 2020
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上的实验进一步验证了该方法的有效性。
Mar, 2019
通过研究上下文感知如何改善当前神经机器翻译模型在英日商务对话翻译中的表现,并探索哪种上下文对于提升翻译质量提供有意义的信息,本文使用事先训练的 mBART 模型在多句对话数据上进行微调,研究了更大上下文范围的影响,并提出了编码额外片段信息(如发言人和场景类型)的新型上下文标记,实验结果发现模型利用前几个句子和额外片段的上下文(随着上下文范围的增加,CXMI 也在增加)以及对敬语翻译进行了更专注的分析,而在翻译质量方面,与以往的工作和无上下文的基线比较,增加源语言上下文信息和场景、发言人信息有助于提高模型性能(使用 BLEU 和 COMET 指标进行衡量)。
Nov, 2023
本文研究使用多编码器和两个注意力机制以读取当前和先前句子以融入上下文的神经机器翻译(NMT)的文档级上下文问题,提出了一种权重共享方法,并得出结论,当在 NMT 中作为解码器状态插入目标端上下文时,目标端上下文也是有用的。
Sep, 2019
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况有很大的帮助。
Oct, 2020
该研究系统研究了端到端的神经机器翻译的上下文向量作为句子的交互语言表征的功效,并在可比较语料库中取得了较高的平行句子识别准确率。
Apr, 2017
本文提出了一个名为 BERT-fused 的算法,通过在 NMT 模型的编码器和解码器的每个层中使用 BERT 提取表示并通过注意机制融合,实现了在监督、半监督和无监督机器翻译上取得了最先进的结果。
Feb, 2020