研究使用 SHAP 值作为唯一一种同时具有一致性和局部精度的加性特征归因方法,在现有方法不一致的情况下,提高特征归因的准确性和可解释性,应用于 XGBoost 模型中能够显著提高监督聚类性能和模型解释能力。
Jun, 2017
本文提供了两种流行的解释方法(Occlusion 和 Shapley 值)的模型无关实现,以无限制的交互方式实现不同的属性。利用已纠正的特征归属来生成额外的本地数据,通过在模拟和真实数据实验中展示我们提出的方法如何通过纠正的解释显著提高模型的性能。添加交互式解释以增加活动学习效率,显著优于现有的解释性交互策略。此外,本文探讨了领域专家如何提供足够正确的特征归属来改进模型。
Jun, 2023
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
本文提出了一种基于扰动的预测忠实度度量方法,称为 PGI 平方,在决策树回归模型中可以准确高效地计算任意独立特征扰动分布的度量。同时,根据 PGI 平方,我们提出了一种根据特征重要性对树模型预测进行排名的方法,实验结果表明,在某些方面,该方法可能会更好地识别全局重要特征,超越了现有的 SHAP 解释器。
Apr, 2024
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
本文介绍了共有十种 feature attribution 方法,其中七种是 class-dependent 方法,三种为 distribution-aware 方法,并在三个临床数据集上对其进行了评估,提出 SHAP-KL 和 FastSHAP-KL 两种分布感知的方法,计算 Shapley 值。
Feb, 2023
该论文旨在通过将不同方法或其变种的多个解释结合起来,系统地提高特征归因的质量,从而改进理解和验证复杂的机器学习模型的预测,该组合策略在多个模型架构和流行的特征归因技术中始终优于个别方法和现有基准。
Jun, 2024
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022
通过引入一种公理化博弈论的方法,本文针对排名任务的特征归因方法提出了 Rank-SHAP 算法,并通过多方案的计算效率和准确性评估以及与人类直观的一项用户研究,对算法进行了验证和分析。
机器学习模型的决策过程解释对于确保其可靠性和公平性至关重要。我们提出了一个统一框架,通过四个诊断属性实现了突出和交互式解释的直接比较,并揭示了不同诊断属性方面各解释类型的优势。突出解释对模型预测最为忠实,而交互式解释对于学习模拟模型预测提供了更好的效用,这些认识进一步凸显了未来研究发展结合方法以提高所有诊断属性的需求。