Apr, 2024

LeGrad:通过特征形成敏感度的视觉 Transformer 可解释性方法

TL;DR针对 Vision Transformers(ViTs)这一计算机视觉领域的标准架构在可解释性方面的挑战,提出了一种名为 LeGrad 的特定于 ViTs 的解释性方法。该方法使用自我注意机制计算与 ViT 层的注意力图相关的梯度,将梯度作为解释性信号。通过聚合所有层的信号,并结合最后一个标记和中间标记的激活,生成合并的解释性图,从而使 LeGrad 成为增强 ViTs 透明性的一种概念简单且易于实现的工具。在具有挑战性的分割、扰动和开放词汇的场景中对 LeGrad 进行评估,展示了与其他状态 - of-the-art 解释性方法相比的多功能性,展示了其更优越的空间保真度和对扰动的鲁棒性。