本文研究探讨了应用于对话行为检测和关键词提取的神经注意力模型在序列分类任务中的应用和作用,并通过实验结果和可视化分析验证了该模型在去除噪音和提取关键信息方面的表现。
Mar, 2016
本文研究序列到序列模型中注意力机制,通过监督学习的方法对注意力权重和输出对齐进行训练,实验结果表明,对齐学习对模型性能的提升至关重要。
Apr, 2022
该论文提出了一种基于序列到序列的文档摘要模型中的注意力机制改进方法,结合局部方差损失和全局方差损失分别从局部和全局方面增强注意力的监督,并在 CNN/Daily Mail 数据集上验证了其有效性。
Oct, 2019
本研究提供详细分析和比较注意力和传统对齐,在一些情况下表明注意力不同于对齐且能捕捉除对齐以外的有用信息。
Oct, 2017
本论文研究了注意力机制在神经机器翻译中生成对齐的问题,并从重新排序方面分析和解释了这个问题。提出了一种受传统对齐模型指导学习的监督注意力机制,实验表明,这种机制比标准注意力机制产生更好的对齐效果,并且在中英文翻译任务中均有显著提高。
Sep, 2016
研究关注机制在 NLP 中的应用,提出了一个针对循环网络序列分类任务中存在的问题的解决方法,并给出了证明,说明关注机制可以提供循环模型的可靠解释。
May, 2020
本文将多模态注意力机制应用于图像字幕生成领域,通过在自然语言描述和图像上同时聚焦,实现了一种基于图像字幕的另一种语言描述生成方法,并在 Multi30k 数据集上取得了更好的效果。
本文提出一种统一的注意力机制模型,针对自然语言处理领域中基于文本数据向量表示的注意力机制的四个维度进行了分类。本文通过举例说明如何在注意力模型中利用先前信息,并讨论了该领域正在进行的研究工作和开放性挑战。这是该领域中广泛文献的首次广泛分类。
Feb, 2019
本研究提出了两种结合多源序列的注意力机制的方法,并在 WMT16 的多模态翻译和自动后编辑任务中进行了系统评估。结果表明,所提出的方法在两个任务上都取得了有竞争力的结果。
Apr, 2017
本文探讨了在自然语言推理的背景下,将注意力机制应用到句法树这种更加丰富的拓扑结构上,不仅可以利用底层的句法信息,还可以使注意力更具可解释性。结果表明,该方法非常有效,并进行了广泛的质量分析,提取出了为什么以及如何工作的见解和直觉。
Jul, 2016