该论文提出了特征重要性和特征影响的数学定义,并通过局部依赖曲线直接在数据上对其进行评估,证明其在预测任务中与现有特征选择技术具有竞争力。
Jun, 2020
本文研究机器学习算法中普遍存在的可解释性方法,通过不同的解释方法应用到简单的模型中,发现不同之处并提出一种新的方法来比较不同解释间的差异。
Jul, 2022
研究使用 SHAP 值作为唯一一种同时具有一致性和局部精度的加性特征归因方法,在现有方法不一致的情况下,提高特征归因的准确性和可解释性,应用于 XGBoost 模型中能够显著提高监督聚类性能和模型解释能力。
Jun, 2017
本文提出了关于变量重要性的非参数推断的一般框架,定义了变量重要性作为所有可用特征与除考虑特征外的所有特征之间的神谕可预测性的总体对比,并提出了有效的估计程序和策略。
Apr, 2020
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
我们提出了一种公平特征重要性评分,用于解释决策树等可解释的黑盒机器学习模型对公平性或偏见的贡献。通过模拟和真实示例,我们证明了该方法对树形集成和其他机器学习系统的树形替代物提供了有效的解释性。
Oct, 2023
提出了概念解释的原则和求解算法 ACE,能够系统性地通过可视化概念提供对深度神经网络预测的重要性的人类可解释性解释。
Feb, 2019
本文介绍了一种基于局部特征重要性的机器学习可解释性方法,提出了两个可视化工具:partial importance (PI) 和 individual conditional importance (ICI) plots,并引入了 Shapley feature importance,可以公平地分配模型性能,比较不同模型上的特征重要性。
Apr, 2018
变量重要性在可解释机器学习中起着关键作用,它有助于衡量因素对预测模型输出的影响。我们的研究重点是评估和评估旨在解决变量重要性评估中特征相关性问题的方法,如条件预测影响(CPI)等,我们首先进行综合模拟研究,调查特征相关性对变量重要性评估的影响,然后通过 knockoff 构造从理论上证明高相关特征对 CPI 的限制。我们的发现强调了处理高特征相关性时的困难和方法在变量重要性评估中的实用性和局限性的必要性。
Feb, 2024
这篇论文介绍了如何将解释性方法扩展到具有不确定性意识的模型中,并演示了如何通过这些方法深入理解模型行为、特征对预测分布熵和真实标签对数似然的影响,以及不确定性来源对模型性能的影响。