可解释性并非游戏
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
Feb, 2023
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
提出了一种简单而有用的代理,修改任何 XAI 特征排序方法的结果,以便考虑预测变量之间的依赖关系。该方法是模型不可知的,而且在存在共线性时计算每个预测变量在模型中的影响非常简单。
Apr, 2023
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
通过提出一种名为 ShapG 的新的可解释人工智能 (XAI) 方法,该方法基于 Shapley 值来衡量特征的重要性,本文探讨了人工智能系统的解释和透明度的重要性,并通过与其他 XAI 方法的比较和广泛的实验证明 ShapG 的高效性和可应用性。
Jun, 2024
鉴于人工智能对我们日常生活的影响越来越大,AI 决策的透明性和可解释性变得越来越重要。与全局解释相关的特征的因果关系和预测重要性在全局解释中提供了一种解释人工智能模型的方式,为了更好地理解预测的特征重要性,我们提出了 CAGE (因果感知的 Shapley 值用于全局解释) 方法,通过引入一种尊重输入特征的因果关系的新型取样过程,将因果知识融入全局解释的实践方法中。我们在合成数据和现实世界数据上评估了我们的方法,并证明与以前的全局解释方法相比,我们的方法不仅更直观,而且更可靠。
Apr, 2024
本研究旨在对现有可解释人工智能研究进行审查,并对 XAI 方法进行分类。该研究目的在于为 XAI 用户提供适当的方法,并将所需属性与当前 XAI 方法相关联,从而为用户提供个性化的解释。
Feb, 2023
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023