Mar, 2021

用于解释双模态和编码器 - 解码器 transformers 的通用注意力模型可解释性

TL;DR本文提出了第一个用于解释任何基于 Transformer 结构的预测的方法,包括双模态 Transformers 和具有协同注意力的 Transformers,通过考虑并行的多个注意力图来突出与模型输入预测相关的信息。我们将这种通用的解决方案应用于三个最常用的结构,并表明我们的方法优于所有现有的从单模态的可解释性方法进行改进的方法。