通过引入全局上下文,我们提出了一种新的文档级 NMT 框架,用于处理包含任意数量句子的文档,并且可以在标准数据集上优雅地训练,结果表明我们的模型优于 Transformer 基线和之前的文档级 NMT 模型。
Feb, 2020
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上的实验进一步验证了该方法的有效性。
Mar, 2019
研究了文档级上下文在 NMT 中的改善机制,发现大多数的改进不能被解释为利用上下文,并说明了上下文建模的最小编码是足够的,而非常长的上下文对 NMT 不利。
Oct, 2019
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况有很大的帮助。
Oct, 2020
通过引入基于轻量级注意力的额外选择层,我们在保持翻译性能的同时加快了 20%的速度,能够实现将注意力仅集中在约 5%的令牌上,从而节省了 93%的计算成本。
Sep, 2023
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人类偏好度。
Mar, 2020
本文提出了一种基于上下文的翻译方法,并探究了历史上下文信息对神经机器翻译性能的影响。实验结果表明,该方法相较于基于注意力机制的神经机器翻译系统,能够显著提高翻译质量 + 2.1 BLEU points。
Apr, 2017
本文提出了一种层次化的注意力模型,通过在神经机器翻译中引入文本级的上下文信息,有效提升了翻译的质量。实验结果表明,编码器和解码器都对上下文信息做出了积极贡献。
Sep, 2018
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
本文研究使用多编码器和两个注意力机制以读取当前和先前句子以融入上下文的神经机器翻译(NMT)的文档级上下文问题,提出了一种权重共享方法,并得出结论,当在 NMT 中作为解码器状态插入目标端上下文时,目标端上下文也是有用的。
Sep, 2019