TreeSHAP-IQ 是一种高效的方法,用于计算基于树的模型预测的任意阶可加性 Shapley 相互作用,并通过数学框架支持,利用多项式算术在树的单个递归遍历中计算相互作用分数。
Jan, 2024
针对解释树集成方法(如梯度提升机和随机森林)结果的重要性,提出了 SHAP 值作为唯一一致及本地精确的归因值方法,并采用丰富的可视化方式改进归因总结和偏关系图,并提出了一种独特的 “受监督” 聚类方法。
Feb, 2018
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
本文提出了分布式数据 Shapley 值(DShapley),该值是将 Shapley 值等博弈理论概念开发到了机器学习的统计框架,并可以应用于识别对学习算法有用或有害的数据点。本文通过导出线性回归,二元分类和非参数密度估计的 DShapley 的第一批分析表达式,提供了新的算法来快速估计 DShapley,这些公式直接解释并为不同数据类型提供量化的见解。
Jul, 2020
研究使用 SHAP 值作为唯一一种同时具有一致性和局部精度的加性特征归因方法,在现有方法不一致的情况下,提高特征归因的准确性和可解释性,应用于 XGBoost 模型中能够显著提高监督聚类性能和模型解释能力。
Jun, 2017
介绍了一种名为 “ensemble games” 的可转移效用合作博弈,通过定义一种名为 Troupe 的算法,它基于分类器的近似 Shapley 值来分配收益,以量化机器学习集合中模型的重要性,并证明了 Shapley 值估计方案的精确性和可扩展性, 经验证明,Shapley 值可用于集合修剪,对抗模型接受低估价值,常常发现复杂的分类器对于正确和错误的分类决策都负有责任。
Jan, 2021
Shapley value 在计算量大时的计算问题的解决方案研究
Sep, 2023
本文提出了一种替代 Shapley Value 功能归属的方法,名为 Shapley Sets,通过递归函数分解算法将基础模型分解为非可分离变量组,非常适用于具有复杂依赖结构的数据类型,并与 Shapley Value 具有相同的公平公理。
Jul, 2023
提出了两种新算法以及相应的下限,适用于树集合,展示了决策树和树集合分类训练数据集所需的切割数相比,随着树的数量增加,集合所需的切割数可能会指数级下降。
Jun, 2023
LLpowershap 是一种利用基于损失的 Shapley 值来识别信息特征的特征选择方法,与其他现有方法相比,它不仅能够识别更多的有信息特征,而且输出的噪声特征较少。在四个真实世界数据集上进行的基准测试结果显示,LLpowershap 的预测性能要么更高,要么与其他基于 Shapley 值的封装方法或过滤方法相当。