本研究提出了利用句子上下文进行神经机器翻译的新方法,并在 WMT14 英德和英法基准测试中进行了实验,结果表明,通过利用句子上下文可以提高翻译性能,深度句子上下文可以形成更全面的上下文表示。
Jun, 2019
通过引入全局上下文,我们提出了一种新的文档级 NMT 框架,用于处理包含任意数量句子的文档,并且可以在标准数据集上优雅地训练,结果表明我们的模型优于 Transformer 基线和之前的文档级 NMT 模型。
Feb, 2020
本文研究使用多编码器和两个注意力机制以读取当前和先前句子以融入上下文的神经机器翻译(NMT)的文档级上下文问题,提出了一种权重共享方法,并得出结论,当在 NMT 中作为解码器状态插入目标端上下文时,目标端上下文也是有用的。
Sep, 2019
文档级上下文对神经机器翻译至关重要,然而仅仅增加本地上下文的大小并不能捕捉到整个上下文信息,而这些挑战可以通过引入受限的注意力机制来解决,并在低资源情况下实现良好的折衷方案。
Jun, 2023
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况有很大的帮助。
Oct, 2020
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人类偏好度。
Mar, 2020
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文介绍了一种新的度量模型使用上下文的方法,并提出了一种新的训练方法来增加上下文感知模型的使用率。实验证明,这种方法可以提高翻译质量和语义连贯性。
May, 2021
这篇论文探讨了上下文感知神经机器翻译的挑战与方法,并提出了一种更逼近真实情境的段落级翻译任务 para2para,同时提供了新的中英小说数据集以促进未来研究。
May, 2023
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上的实验进一步验证了该方法的有效性。