基于 Shapley 值的残差分解方法进行实例分析
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
本文提出了一种新的算法方法,将 Shapley 值中两种不同的解释组合在一起,以增强模型的说明能力,并在两个真实世界的数据集上应用。
Jun, 2023
在这篇论文中,我们提出了一种针对实例归属的鲁棒性解释方法,通过引入 Shapley 值的高效逼近方法来提高实例归属和其他数据相关应用的性能,在大型语言模型上进行了广义的推广。
Jun, 2024
本文提出了一种新的特征选择方法,使用 Shapley 值来研究每个变量对预测的影响,以应对数据集漂移和变量关系变化的情况,并通过分析电力市场的例子进行验证。
Apr, 2023
本研究旨在介绍 Shapley 可解释性的一个数学根据和模型独立的框架,但是通常的 Shapley 可解释性实现做了一个不切实际的假设,即模型的特征是不相关的,而作者这里提出了两种策略去解决这个问题,基于生成建模的方法提供灵活的数据归因,另一种直接学习了 Shapley 价值函数,提供了性能和稳定性,但缺陷是没有灵活性,通过我们的研究表明该假设会导致展示效果错误,隐藏敏感性属性的隐含模型依赖性和意义不明的高维数据。
Jun, 2020
该研究提出了一种新框架 - DBShap,使用 Shapley 值来识别漂移的主要驱动因素,并量化它们的贡献。DBShap 不仅能够量化个体特征在驱动漂移方面的重要性,还能包括输入和输出之间潜在关系的变化作为可能的驱动因素。DBShap 提供的解释可以用于了解漂移的根本原因,并用于使模型对漂移具有鲁棒性。
Jan, 2024
本文介绍了使用 Shapley 值来量化函数中随机输入变量的重要性,并探讨了基于 ANOVA 分解的替代方案在输入变量存在相关性时存在的概念和计算问题。通过一些简单的示例,我们说明 Shapley 值可以消除这些问题并产生直观合理的闭式数值。
Oct, 2016
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
本文提出了一种替代 Shapley Value 功能归属的方法,名为 Shapley Sets,通过递归函数分解算法将基础模型分解为非可分离变量组,非常适用于具有复杂依赖结构的数据类型,并与 Shapley Value 具有相同的公平公理。
Jul, 2023
在合成孔径雷达(SAR)等风险高、成本高的场景中,可解释的人工智能(XAI)对于提高深度神经网络的透明度和可信度至关重要。Shapley 是一种具有强大数学基础的基于博弈的解释技术。然而,Shapley 假设模型的特征是独立的,这使得高维模型的 Shapley 解释无效。本研究通过将高维特征投影到低维流形特征,并随后获得 Fusion-Shap,引入了一种基于流形的 Shapley 方法,旨在(1)解决传统 Shap 遇到的错误解释问题;(2)解决传统 Shap 在复杂场景中面临的可解释性挑战。
Jan, 2024