Powershap: 一种强大的 Shapley 特征选择方法
LLpowershap 是一种利用基于损失的 Shapley 值来识别信息特征的特征选择方法,与其他现有方法相比,它不仅能够识别更多的有信息特征,而且输出的噪声特征较少。在四个真实世界数据集上进行的基准测试结果显示,LLpowershap 的预测性能要么更高,要么与其他基于 Shapley 值的封装方法或过滤方法相当。
Jan, 2024
本文提出了一种新的特征选择方法,使用 Shapley 值来研究每个变量对预测的影响,以应对数据集漂移和变量关系变化的情况,并通过分析电力市场的例子进行验证。
Apr, 2023
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
该研究介绍了一种名为 PWSHAP 的新框架,用于评估复杂结果模型中二元变量(例如治疗)的有针对性影响。方法使用因果途径和 Shapley 值,同时保持对敌对攻击的鲁棒性,可以执行本地偏差和中介分析,并量化本地效应修改。
Jun, 2023
通过引入一种假设检验框架并证明在没有对效用函数施加特定约束的情况下,Data Shapley 的性能不能比随机选择更好,我们深入研究了 Data Shapley 的性能差异。我们确定了一类效用函数,即单调转换模块化函数,在其中 Data Shapley 可以最优地选择数据,基于此,我们提出了一种启发式方法用于预测 Data Shapley 在数据选择任务中的有效性。我们的实验验证了这些发现,并进一步揭示了 Data Shapley 成功与否的一些新的洞察。
May, 2024
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
讨论了使用 Shapley 值量化特征相关性的最新研究进展,针对哪种概率分布是适用于删除特征的正确之一存在一些混淆,建议根据 Pearl 对因果关系的重大工作进行澄清,得出无条件的期望是正确的删除特征概念的结论,SHAP 软件包的部分内容受到影响,因为被用作近似条件期望的无条件期望(我们认为这是概念上正确的),促使其他人以我们认为是有缺陷的方式 “改进” SHAP。
Oct, 2019
基于 Shapley 值的 ShaRP 框架用于解释特征对排序结果的贡献,展示了即使排名算法使用已知和线性的评分函数,特征的权重也不能与其 Shapley 值对应,而是依赖于特征分布和评分特征之间微妙的局部交互。ShaRP 在多个感兴趣的指标(包括分数、排名、成对偏好和前 k 个)上计算特征的贡献,并能解释基于分数和学习排序模型。通过实际和合成数据集的大量实验证明了 ShaRP 的有用性。
Jan, 2024
这篇论文研究了机器学习技术中局部后解释性方法的不稳定性问题,提出了通过改进确定邻居选取的方法以解决不稳定性问题,同时通过限制邻居生成的扰动范围得到了一种全新的特征归因方法。
Dec, 2023
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
Sep, 2023