神经机器翻译中的语篇现象评估
本研究提出了利用句子上下文进行神经机器翻译的新方法,并在 WMT14 英德和英法基准测试中进行了实验,结果表明,通过利用句子上下文可以提高翻译性能,深度句子上下文可以形成更全面的上下文表示。
Jun, 2019
本文提出了一种基于上下文的翻译方法,并探究了历史上下文信息对神经机器翻译性能的影响。实验结果表明,该方法相较于基于注意力机制的神经机器翻译系统,能够显著提高翻译质量 + 2.1 BLEU points。
Apr, 2017
探究在基于注意力的神经机器翻译中使用扩展上下文的效果,通过对电影字幕进行翻译实验,研究增加翻译单元之外的片段对源语言上下文和双语上下文扩展的影响,发现模型可以区分不同片段的信息,并且在一些情况下可以改善译文连贯性。
Aug, 2017
文档级上下文对神经机器翻译至关重要,然而仅仅增加本地上下文的大小并不能捕捉到整个上下文信息,而这些挑战可以通过引入受限的注意力机制来解决,并在低资源情况下实现良好的折衷方案。
Jun, 2023
通过引入全局上下文,我们提出了一种新的文档级 NMT 框架,用于处理包含任意数量句子的文档,并且可以在标准数据集上优雅地训练,结果表明我们的模型优于 Transformer 基线和之前的文档级 NMT 模型。
Feb, 2020
通过研究上下文感知如何改善当前神经机器翻译模型在英日商务对话翻译中的表现,并探索哪种上下文对于提升翻译质量提供有意义的信息,本文使用事先训练的 mBART 模型在多句对话数据上进行微调,研究了更大上下文范围的影响,并提出了编码额外片段信息(如发言人和场景类型)的新型上下文标记,实验结果发现模型利用前几个句子和额外片段的上下文(随着上下文范围的增加,CXMI 也在增加)以及对敬语翻译进行了更专注的分析,而在翻译质量方面,与以往的工作和无上下文的基线比较,增加源语言上下文信息和场景、发言人信息有助于提高模型性能(使用 BLEU 和 COMET 指标进行衡量)。
Nov, 2023
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况有很大的帮助。
Oct, 2020
本论文提出了一个带有丰富语篇注释的新数据集,并探讨了源语言和目标语言的语篇结构相似性和差异性以及其对机器翻译的挑战和机会,该资源可公开使用以促进未来在文档级机器翻译和其他语言翻译任务的研究。
May, 2023
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人类偏好度。
Mar, 2020