贪婪猪:自适应积分梯度
本研究提出了一种新的归因算法 (IDG) 用于神经网络模型的解释,该算法实现了通过将梯度积分到模型决策区域来解决饱和问题,该算法在 ImageNet 上进行的评估表明 IDG 在三个常见模型中以标准插入和删除度量标准在质量和量化上都优于 IG、left-IG、guided IG 和敌对梯度积分。
May, 2023
本文提出了自适应路径方法(APM)以及其特例 Guided IG 方法,通过调整归因路径本身(而非仅减少结果中的噪声)来解决在视觉模型上应用 Integrated Gradients 方法产生噪声像素归因的问题,并实验证明其在几乎所有实验中优于其他相关方法,可以创建与模型预测和图像输入更加一致的显著性地图。
Jun, 2021
本研究将 Integrated Gradients 和 PatternAttribution 两种神经网络可解释性方法相结合,形成了 Pattern-Guided Integrated Gradients (PGIG) 方法,并在大规模图像退化实验中对其和其他九种可解释性方法进行了基准测试,结果表明 PGIG 优于所有其他方法。
Jul, 2020
本文介绍了广义整合梯度(GIG),是解释 ML 预测模型的输入变量的方法,并且相较于其他方法有很好的特性,适用于各种实际应用,特别是金融领域。我们证明了在合理的公理下,GIG 是解释混合型模型或游戏的唯一正确方法。
Sep, 2019
本文针对 Integrated Gradients 在文本数据中由于词嵌入空间的固有离散性导致插值点不够具有代表性的问题,提出了基于离散化插值策略的 Discretized Integrated Gradients 方法,与 Integrated Gradients 方法相比,本方法计算出的梯度更符合实际情况,有效性得到了实验和人工评估的验证。
Aug, 2021
该研究分析了模型 input-gradients 在解释性方面的问题,提出了将标准 softmax-based 分类器的 logits 重新解释为未归一化的数据密度,证明了 input-gradients 可以被视为隐含于判别模型中的类条件密度模型的梯度,并提出了通过 score-matching 来实现对隐含密度模型与数据分布的对齐的算法。研究表明,对齐隐含密度模型和数据分布可以提高梯度的结构性和解释性。
Jun, 2020
通过重视噪音源,提出了一种新的框架 ——IDGI,结合了 Reimann Integration 和 IG-based 的方法,可以在解释性指标上显著提高。
Mar, 2023
本研究提出基于期望梯度的新型特征归因方法,并以此为基础推导了新的可调控归因先验。实验结果表明,该方法在图像、基因表达和医疗数据集中均具有较好的性能,可以有效优化模型的解释性能。
Jun, 2019