SHAP 对 Alert 处理的人类基础评估
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
这篇论文探讨解释的可解释人工智能(XAI)方法,特别是 SHapley 加性解释和局部可解释模型无关解释等两种使用广泛的方法,提出一个框架来解释它们的输出,强调它们的优缺点。
May, 2023
我们提出并研究了使用计算成本较低的回归模型来逼近诸如 SHAP 之类的基于分数解释技术的输出,通过采用归纳符合预测框架提供了对逼近值的有效性保证。我们提出了几种非一致性度量方法,旨在考虑到解释逼近的困难程度同时保持计算成本的低廉。通过大规模实证研究的结果表明,我们提出的模型生成的近似解释在效率(区间大小)方面得到了评估。结果表明,与快速版本的 SHAP TreeSHAP 相比,所提出的方法可以显著提高执行时间。结果还表明,所提出的方法可以产生紧密的区间,同时提供有效性保证。此外,所提出的方法允许比较不同逼近方法的解释,并根据预测区间的信息量(紧密程度)选择一种方法。
Aug, 2023
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022
本文提出了一种利用 SHAP 理论生成模型互解释性的模型无关方法,能够生成可用于人类理解的对比和反事实解释,并在 IRIS、葡萄酒质量和移动特性数据集上进行测试和分析。
Jun, 2019
通过整合可解释的人工智能技术与自适应学习,本论文提出了一种方法来增强能源消耗预测模型,重点处理数据分布变化。利用 SHAP 聚类方法,我们的方法能够为模型的预测结果提供可解释的解释,并利用这些洞察力来自适应地改进模型,平衡模型复杂度和预测性能。我们引入了一个三阶段的过程:(1) 获取 SHAP 值以解释模型的预测结果,(2) 通过聚类 SHAP 值来识别不同的模式和异常值,以及 (3) 根据得到的 SHAP 聚类特征来改进模型。我们的方法能够减轻过拟合并确保处理数据分布变化的鲁棒性。我们在一个包含建筑物能耗记录以及两个额外数据集的综合数据集上评估了我们的方法,以评估我们的方法在其他领域、回归和分类问题中的可迁移性。我们的实验结果表明,我们的方法在两种任务类型中均具有有效性,能够改善预测性能并提供可解释的模型解释。
Feb, 2024