本文将多模态注意力机制应用于图像字幕生成领域,通过在自然语言描述和图像上同时聚焦,实现了一种基于图像字幕的另一种语言描述生成方法,并在 Multi30k 数据集上取得了更好的效果。
Sep, 2016
本文提出了一种在一个新的句法距离约束下扩展局部注意力的神经机器翻译模型,同时进一步提出了一个双重上下文神经机器翻译体系结构,以提高翻译性能。实验证明,该方法从源表示中实现了显著和重大的改进。
Nov, 2017
本文研究了两种简单而有效的注意力机制 —— 全局式和局部式,证明了这两种方法在英德翻译任务中的有效性,并使用不同的注意力架构建立了一个新的 WMT'15 英德翻译任务最佳结果的集成模型,其 BLEU 分数为 25.9 分,比现有的最佳基于 NMT 和 n-gram reranker 的系统提高 1.0 分。
Aug, 2015
本文提出了一种新的 GRU 门控注意力模型,可以通过使源表示对编码器状态敏感,从而增强了上下文向量的区分度,实现了对目标单词的区分性预测,并在 NIST 中英翻译任务中取得了显著的改进。
Apr, 2017
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上的实验进一步验证了该方法的有效性。
Mar, 2019
本论文研究了注意力机制在神经机器翻译中生成对齐的问题,并从重新排序方面分析和解释了这个问题。提出了一种受传统对齐模型指导学习的监督注意力机制,实验表明,这种机制比标准注意力机制产生更好的对齐效果,并且在中英文翻译任务中均有显著提高。
本文提出基于 coverage 的 NMT 模型通过维护一个 coverage 向量来跟踪 Attention 历史信息,帮助调整未来 Attention,从而显著提高了传统 attention-based NMT 的翻译和对齐质量。
Jan, 2016
本文提出了一种层次化的注意力模型,通过在神经机器翻译中引入文本级的上下文信息,有效提升了翻译的质量。实验结果表明,编码器和解码器都对上下文信息做出了积极贡献。
Sep, 2018
本文介绍了一种基于注意力机制的神经机器翻译模型,该模型通过暂时性存储对齐信息和调节注意力值的方法,提高了翻译效果, 在两种语言对上的大规模实验中,该方法不仅超越了基线 NMT 模型,还比其他相关方法表现更出色,甚至有些情况下在不使用集成的情况下也能胜过 SMT 基准。
Aug, 2016
通过引入基于轻量级注意力的额外选择层,我们在保持翻译性能的同时加快了 20%的速度,能够实现将注意力仅集中在约 5%的令牌上,从而节省了 93%的计算成本。
Sep, 2023