Jan, 2024

通过点亮重要信息更好地解释 Transformers

TL;DR提出了一种在层间相关传播 (LRP) 方法的基础上通过细化信息流来突出重要信息并消除无关信息,实验结果表明,与八个基准方法相比,在分类和问答数据集上我们的方法始终表现出超过 3% 到 33% 的解释指标的提升,提供了更好的解释性能。