变形金刚中的注意力流量量化
研究 Transformer 模型中的自注意力和语境嵌入等核心组件,提出了有效关注作为解释注意力的补充工具,展示了输入标记在模型中保持其身份,并发现身份信息主要编码在嵌入的角度中,并且随着深度的增加而逐渐降低,同时利用梯度归因方法展示了输入信息在产生语境嵌入时的强烈混合,最终展示了更好地理解和进一步研究 Transformer 模型所需的工具。
Aug, 2019
本文提出了一种自我注意力归因方法,通过对 BERT 等模型进行广泛的研究,发现这种方法能够用于识别重要的注意力头,构建注意力树,揭示变压器内的分层交互,以及可用作敌对模式实现非定向攻击。
Apr, 2020
该论文提出了一种名为 ALTI 的方法,通过考虑注意力模块(multi-head attention, residual connection and layer normalization)以及定义一种新的度量方法来测量各层之间的令牌交互,从而提供更准确的输入归因分数以解释模型预测,在实验中显示 ALTI 比基于梯度方法更好地提供了模型预测的解释,提高了模型的鲁棒性。
Mar, 2022
我们提出了 Transformer 神经网络结构中自注意力的因果解释。我们将自注意力解释为一种机制,用于估计给定输入符号(标记)序列的结构方程模型。结构方程模型可以被解释为输入序列特定上下文下的输入符号的因果结构。与潜在混淆变量相比,该解释仍然有效。根据此解释,我们通过计算最深层注意力中相应表示之间的偏相关来估计输入符号之间的条件独立关系。这使得能够使用现有的基于约束的算法学习输入序列上的因果结构。从这个意义上讲,现有的预训练 Transformer 可被用于零样本因果发现。我们通过为两个任务(自然语言处理的情感分类和推荐)中的 Transformer 结果提供因果解释来演示这种方法。
Oct, 2023
通过对 transformer 中不同标记和 graph neural network 中不同节点在深层的相似性进行分析,我们提出了一个简单的修正项,它可以有效地消除过度平滑问题,在弱监督分割任务上表现优于通常基准方法,并且在非常深的图神经网络架构训练上显著提高了训练效果。
Jun, 2023
本文研究了 BERT 的注意力机制,探究了两个问题:如何使用注意力机制减少输入长度和如何将注意力用作条件文本生成的控制机制,并发现 BERT 的早期层对文本分类任务的关注度更高,其注意力和可以用于过滤给定序列的令牌,一定程度上减少了输入长度同时保持良好的测试准确性。
Mar, 2023
通过使用梯度归属法分析,我们找出了自注意力头在 transformer 架构中的局部行为与全局行为之间的区别。此外,我们观察到,尽管混合上下文信息导致了注意力和归属度量之间有明显的偏差,但有些特定的模式在深度学习的所有层都是存在的。
Apr, 2020
本文提出了基于流网络理论的 Flow-Attention 机制以解决 Transformers 中注意力机制的复杂度难题,并在各个领域取得了线性时间性能,包括长序列,时间序列,视觉,自然语言和强化学习等。
Feb, 2022
本文将 Transformer 视为相互作用的粒子系统,描述了当权重不随时间变化时,学习表示的几何特征,证明了表示中的粒子会在时间趋于无穷时聚集到特定的极限对象,这取决于值矩阵的谱。同时,在一维情况下,证明了自我关注矩阵收敛于低秩布尔矩阵。这些结果的组合在数学上证实了 Vaswani 等人的经验观察,即在 Transformers 处理一系列标记时会出现 “leader”。
May, 2023