PWSHAP: 针对目标变量的路径解释模型
在本研究中,我们对一种名为SHAP的解释方法进行人本评估,该方法已在可解释人工智能和相关社区中广受欢迎。我们研究了这种局部规范无关解释方法是否对实际的人类领域专家有用,以评估分类器产生的正面预测的正确性。结果表明,SHAP解释确实影响决策过程,尽管该方法得分的置信度仍然是主要的证据来源。但在我们的实验中,当提示信息可用时,与不提供提示信息相比,在警报处理性能方面并没有明显差异。
Jul, 2019
通过介绍Asymmetric Shapley values (ASVs)这种较少限制的框架,本文提出了这种框架可以改善模型解释、为模型预测中的不公平歧视提供测试、在时序模型中支持逐步增量解释以及支持特征选择研究而无需进行模型重新训练。
Oct, 2019
介绍了一种名为DeepSHAP的混合模型解释框架,它基于Shapley值,可以用来解释由不同模型堆叠而成的复杂模型,包括神经网络和树形模型,并能够为损失函数提供解释。
Nov, 2019
本文提出了一种新的 SHAP 方法,Counterfactual SHAP,以增强和澄清可操作性和特征归因之间的联系,通过使用反事实信息构建背景数据集,在许多合成示例中展示了 Shapley 值在可操作性场景中仔细考虑背景数据集的必要性,并提出了一种新的量化分数 counterfactual-ability 来衡量特征归因的性能。
Oct, 2021
本文提出了WindowSHAP框架,一个用于解释时间序列分类器的模型无关框架,使用Shapley值来降低计算复杂度并提高解释质量,提供三个不同的算法,分别对应静态、滑动和动态时间窗口,应用于医学领域的数据,获得了较好的实验结果。
Nov, 2022
采用机器学习进入常规临床实践需要可解释的人工智能方法,Shapley值已引起广泛关注,但其解释在很大程度上取决于摘要统计量和估计方法,这进而决定了我们所确定的“锚点”,我们发现使用平均锚点的传统方法可能对生存分析产生误导性的解释,因此引入了中值-SHAP方法,用于解释预测个体存活时间的黑盒模型。
Jan, 2024
我们引入了一种新颖的、能够显著简化Shapley值计算的自解释方法,并且探索了将概率框架纳入其中以捕捉解释中固有的不确定性,它基于一个新颖的遮蔽神经网络体系结构,在模拟和真实数据集上的评估验证了我们技术的稳健预测和解释性能。
Feb, 2024
鉴于人工智能对我们日常生活的影响越来越大,AI决策的透明性和可解释性变得越来越重要。与全局解释相关的特征的因果关系和预测重要性在全局解释中提供了一种解释人工智能模型的方式,为了更好地理解预测的特征重要性,我们提出了 CAGE (因果感知的 Shapley 值用于全局解释) 方法,通过引入一种尊重输入特征的因果关系的新型取样过程,将因果知识融入全局解释的实践方法中。我们在合成数据和现实世界数据上评估了我们的方法,并证明与以前的全局解释方法相比,我们的方法不仅更直观,而且更可靠。
Apr, 2024
本文分析了Shapley值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的Shapley值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024