上下文感知的神经机器翻译学习指代消解
本文提出了一种神经机器翻译架构,该架构不仅针对源语句进行建模,还考虑到上下文信息,这种方法尤其适用于小型语料库的翻译任务,不仅改进了常规翻译质量,还提出了适用于代词预测的基于注意力的神经机器翻译方法,与其他针对该任务进行设计的方法相比具有更好的表现。
Apr, 2017
本研究探讨了将未来句子作为上下文与使用过去句子作为上下文的翻译模型效果,结果表明使用未来句子作为上下文不仅可以显著改善翻译效果,而且在某些情況下比过去句子更有效。同时,我们还在特定情况下的测试中获得了显著的改善。
Apr, 2020
探究在基于注意力的神经机器翻译中使用扩展上下文的效果,通过对电影字幕进行翻译实验,研究增加翻译单元之外的片段对源语言上下文和双语上下文扩展的影响,发现模型可以区分不同片段的信息,并且在一些情况下可以改善译文连贯性。
Aug, 2017
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文提出了一种基于上下文的翻译方法,并探究了历史上下文信息对神经机器翻译性能的影响。实验结果表明,该方法相较于基于注意力机制的神经机器翻译系统,能够显著提高翻译质量 + 2.1 BLEU points。
Apr, 2017
这篇论文探讨了上下文感知神经机器翻译的挑战与方法,并提出了一种更逼近真实情境的段落级翻译任务 para2para,同时提供了新的中英小说数据集以促进未来研究。
May, 2023
本文介绍了一种新的度量模型使用上下文的方法,并提出了一种新的训练方法来增加上下文感知模型的使用率。实验证明,这种方法可以提高翻译质量和语义连贯性。
May, 2021
通过预测输入中的核指代特征,我们提出了一种可以解释翻译决策的模型,通过利用输入和翻译输出表示中的上下文特征,以提高英语 - 德语数据集、英语 - 俄语数据集和多语言 TED 演讲数据集上的文档级翻译任务 BLEU 分数超过 1.0 的效果。
Apr, 2024
通过研究上下文感知如何改善当前神经机器翻译模型在英日商务对话翻译中的表现,并探索哪种上下文对于提升翻译质量提供有意义的信息,本文使用事先训练的 mBART 模型在多句对话数据上进行微调,研究了更大上下文范围的影响,并提出了编码额外片段信息(如发言人和场景类型)的新型上下文标记,实验结果发现模型利用前几个句子和额外片段的上下文(随着上下文范围的增加,CXMI 也在增加)以及对敬语翻译进行了更专注的分析,而在翻译质量方面,与以往的工作和无上下文的基线比较,增加源语言上下文信息和场景、发言人信息有助于提高模型性能(使用 BLEU 和 COMET 指标进行衡量)。
Nov, 2023
本文介绍了一个新的英法数据集,通过该数据集的分析,指出机器翻译模型在消歧代词和多义词方面经常无法利用上下文信息,通过引入 SCAT,作者提出了一种指导注意力策略来促进模型的注意力分配与 SCAT 的支持上下文的一致性。
May, 2021