多模态注意力神经机器翻译
本文在多模态翻译任务(英文图片翻译德文)中比较了多种注意力机制,并评估了模型利用图像改进翻译的能力,虽然取得了 Multi30k 数据集上超越最先进水平的成绩,但我们也发现并报告了机器在翻译时表现出不同的不当行为。
Jul, 2017
本文研究了两种简单而有效的注意力机制 —— 全局式和局部式,证明了这两种方法在英德翻译任务中的有效性,并使用不同的注意力架构建立了一个新的 WMT'15 英德翻译任务最佳结果的集成模型,其 BLEU 分数为 25.9 分,比现有的最佳基于 NMT 和 n-gram reranker 的系统提高 1.0 分。
Aug, 2015
本研究提出了一种名为 INTERACTIVE ATTENTION 的注意力机制,可以通过读写操作来建模解码器与源句子表示之间的交互,从而跟踪交互历史并提高翻译效果,实验结果表明,与基线和某些注意力机制的改进相比,使用 INTERACTIVE ATTENTION 的神经机器翻译系统可以在多个测试数据集上平均优于开源的 attention-based NMT 系统 Groundhog 4.22 BLEU 分数和开源短语 - based 系统 Moses 3.94 BLEU 分数。
Oct, 2016
本论文研究了注意力机制在神经机器翻译中生成对齐的问题,并从重新排序方面分析和解释了这个问题。提出了一种受传统对齐模型指导学习的监督注意力机制,实验表明,这种机制比标准注意力机制产生更好的对齐效果,并且在中英文翻译任务中均有显著提高。
Sep, 2016
本文提出基于 Transformer 的多模式机器翻译 (MMT) 与视觉注意力机制相结合的模型,并使用带标签的短语 - 区域对齐的辅助信号指导其视觉注意力机制,实现目前最佳 BLEU 和 METEOR 分数的提升。
Jan, 2022
本文介绍了一种基于注意力机制的神经机器翻译模型,该模型通过暂时性存储对齐信息和调节注意力值的方法,提高了翻译效果, 在两种语言对上的大规模实验中,该方法不仅超越了基线 NMT 模型,还比其他相关方法表现更出色,甚至有些情况下在不使用集成的情况下也能胜过 SMT 基准。
Aug, 2016
我们提出了针对多种源语言和目标语言翻译的任务特定的注意力模型,旨在改进序列到序列神经机器翻译的质量。我们在欧洲议会语料库的四种语言上进行的实验表明,使用目标语言特定的注意力模型相对于参数共享模型提供了一致的翻译质量的提升,甚至在低资源的零 - shot 翻译方向上也观察到了翻译质量的改善。
Jun, 2018
我们介绍了一种新颖的多模式机器翻译模型,利用平行的视觉和文本信息。该模型通过视觉注意力锚定机制链接视觉和文本语义,并实现共享的视觉 - 语言嵌入和翻译器的联合优化,取得了在 Multi30K 和 Ambiguous COCO 数据集上有竞争力的最新结果。我们还收集了一个新的多语言多模态产品描述数据集来模拟真实的国际在线购物场景。在这个数据集上,我们的视觉注意力锚定模型以大幅度优于其他方法的表现脱颖而出。
Aug, 2018
本文提出了一种称为多模态注意力的方法,可以针对图像特征、运动特征和音频特征进行选择性关注,以促进视频描述的多模态信息融合,并在 Youtube2Text 数据集上取得了竞争状态 - of-the-art 的结果。
Jan, 2017
本文提出基于 coverage 的 NMT 模型通过维护一个 coverage 向量来跟踪 Attention 历史信息,帮助调整未来 Attention,从而显著提高了传统 attention-based NMT 的翻译和对齐质量。
Jan, 2016