在抑制变量存在时 XAI 方法的理论行为
提出了一种简单而有用的代理,修改任何 XAI 特征排序方法的结果,以便考虑预测变量之间的依赖关系。该方法是模型不可知的,而且在存在共线性时计算每个预测变量在模型中的影响非常简单。
Apr, 2023
针对可解释人工智能 (XAI) 方法缺乏基础事实的问题,研究人员提出了基于公理的方法,通过削弱输入属性的重要性来评估模型性能是否符合期望;本文则使用五个数据集,三种 XAI 方法,四个基线和三个扰动方案,展示了不同的扰动策略在验证过程中的作用,以及在后跑解释和去除研究中一个新的分类变量处理技术,并识别 XAI 方法和可行的脱敏方案的实用基线。
Jul, 2022
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
本文比较了 14 个不同的评估指标在 9 种最先进的 XAI 方法和 3 种用作参考的虚拟方法(如随机显著性图)上的应用结果,结果表明其中一些指标会产生高度相关的结果,还展示了基准超参数变化对评估指标值的显著影响,最后使用虚拟方法评估指标的可靠性及其排名方面的限制。
May, 2023
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
本研究旨在对现有可解释人工智能研究进行审查,并对 XAI 方法进行分类。该研究目的在于为 XAI 用户提供适当的方法,并将所需属性与当前 XAI 方法相关联,从而为用户提供个性化的解释。
Feb, 2023