使用查询引导的胶囊网络增强上下文建模,用于文档级翻译
本文提出了一种基于动态上下文引导胶囊网络(DCCN)的多模式机器翻译方法,通过引入上下文引导的动态路由机制,与全局和区域视觉特征组合,实现生成翻译时的可变性建模,该方法在英语 - 德语和英语 - 法语翻译多个数据集上超越了当前主流的注意力机制、全局上下文模型和多模式联合表示学习模型。
Sep, 2020
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文利用胶囊网络对多头注意力中缺乏的不同子空间之间的语义重叠问题进行优化,通过采用动态路由和期望最大化算法进行信息聚类和分离,从而对汉英翻译和英德翻译任务的 Transformer 模型进行改进。
Aug, 2019
本文提出了一种使用层间选择机制来筛选和优化长文档上下文的端到端编码器 - 解码器模型,以改善神经机器翻译的质量。 实验证明,该模型通过软选择机制在四组数据集上明显优于以前的模型。
Jan, 2023
通过上下文学习,我们提出了一种上下文感知提示方法(CAP),使得大型语言模型能够通过上下文学习生成更准确、连贯、一致的翻译。CAP 结合多级注意力,在当前句子中选择与之最相关的句子作为上下文,从这些句子中生成一个摘要。随后,从数据存储中检索与摘要最相似的句子作为演示,有效地指导大型语言模型生成连贯一致的翻译。我们在各种文档级机器翻译任务中进行了大量的实验,结果表明我们的方法在零代词翻译(ZPT)和文学翻译任务中特别有效。
Jun, 2024
文档级上下文对神经机器翻译至关重要,然而仅仅增加本地上下文的大小并不能捕捉到整个上下文信息,而这些挑战可以通过引入受限的注意力机制来解决,并在低资源情况下实现良好的折衷方案。
Jun, 2023
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上的实验进一步验证了该方法的有效性。
Mar, 2019
本文提出了一种层次化的注意力模型,通过在神经机器翻译中引入文本级的上下文信息,有效提升了翻译的质量。实验结果表明,编码器和解码器都对上下文信息做出了积极贡献。
Sep, 2018
本研究使用动态路由的胶囊网络对线性时间神经机器翻译进行了调查,并提出了一种更加灵活的选择,表示和聚合源句子的部分 - 整体信息的方法。在英德任务和英法任务中,该方法与最先进的神经机器翻译系统获得了可比较的结果。这是关于胶囊网络在序列到序列问题上的首次实证研究。
Nov, 2018
本文研究了文档级 NMT 模型在四个不同领域中的性能,并发现不同的架构适用于不同的任务,同时发现上下文感知系统在任务特定问题上有改进,而文本级别的指标(如 BLEU)没有显着改进。同时,本文还表明,文档级别的回译对于缺乏文档级别双文本的情况有很大的帮助。
Oct, 2020