研究关注机制在 NLP 中的应用,提出了一个针对循环网络序列分类任务中存在的问题的解决方法,并给出了证明,说明关注机制可以提供循环模型的可靠解释。
May, 2020
本文研究基于 LSTM 的编码器的注意力机制的可解释性问题,发现现有的注意力机制不能提供清晰的解释,因为同步隐藏状态之间的高相关性使得注意权重缺乏了传达重要信息的能力。为了使注意力机制更为可信和可解释,作者提出一种基于多样性驱动的训练目标修改 LSTM 结构,实现不同时步的隐藏状态的多样化,以提高注意力分布的质量和可解释性。
Apr, 2020
SEA 提出了稀疏线性注意力机制,通过基于核的线性注意力估计注意力矩阵,然后使用 top-k 选择生成对完整注意力矩阵的稀疏近似,以解决 transformers 在处理长序列时的复杂性问题,并保持可解释的注意力矩阵和利用知识蒸馏来降低预训练 transformers 的复杂性。
Oct, 2023
本文在两种 NLP 任务和两种模型上,比较了五种最近的特征归属方法和两种注意力方法之间的等级相关性,并发现注意力方法与其他特征归属方法的关联度较低,建议停止使用等级相关性作为注意力解释的评估指标。
May, 2022
Attention mechanisms 在 NLP 系统中扮演着重要角色,在重熙神经网络 (RNN) 模型中特别如此。本研究挑战了最近一篇质疑 “Attention 不是 Explanation” 的论文,并提出了四项替代性测试,以确定 Attention 是否可以用作 Explanation,并为每个测试提供有意义的 Attention 机制解释。最终的解释是此前的研究不能否定 Attention 机制的可解释性。
Aug, 2019
本文提出了一个新的深度学习框架,利用两级注意力体系结构来解决模型可解释性的问题,并在新闻文章分类任务中进行了实验,结果显示该模型在可解释性能力方面具有适当性并且与许多现有模型相比性能有竞争力。
Mar, 2022
通过多个 NLP 任务的广泛实验,发现学习的注意力权重往往与基于梯度的特征重要性测量之间存在不相关性,表明标准的注意力模块并不能提供有意义的解释并且不应该被视为能够提供这种解释。
Feb, 2019
测试加权输入组件的注意机制对于模型预测的影响,发现虽然注意机制可以预测输入组件的相对重要性,但并非绝对准确的指标。
Jun, 2019
我们的研究表明,利用全局标记和局部窗口构建的注意力图作为数据点的稳健核表示,可以提高时间序列的预测准确性,并且在不改变核心神经网络结构的情况下,我们的方法胜过了最先进的模型,将多变量时间序列预测的均方误差 (MSE) 降低了显著的 3.6%。它是一个通用的组件,可以轻松替代最近的基于分块的嵌入方案,提升基于 transformer 模型的性能。
Feb, 2024
本文中我们为不确定性检测开发了注意力机制的神经网络,引入外部注意力和序列保持注意力等新的架构,并通过多个注意力维度与其他配置进行了比较。这些新的架构在一个 Wikipedia 基准数据集上取得了新的 state-of-the-art,在使用大量语言特征的生物医学基准测试中与现有技术相似。
Dec, 2016