本文通过形式化证明得出,与传统的 leave-one-out 和 attention-based 解释方法不同,attention flow 是 Shapley Value 的一种有效替代方法,因此建议在 NLP 中广泛采用。
May, 2021
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
Aug, 2018
本文探讨了 Shapley 值在贝叶斯网络框架下的应用,分析了 Shapley 值与条件独立性的关系,并发现高 Shapley 值的变量不一定对模型预测性能有显著影响,而低 Shapley 值的变量可能会导致较差的预测结果。因此,在一般情况下,使用 Shapley 值进行特征选择并不一定能建立起最简单和预测性最优的模型,而且 Shapley 值不反映变量与目标之间的因果关系。
Aug, 2020
通过提出一种名为 ShapG 的新的可解释人工智能 (XAI) 方法,该方法基于 Shapley 值来衡量特征的重要性,本文探讨了人工智能系统的解释和透明度的重要性,并通过与其他 XAI 方法的比较和广泛的实验证明 ShapG 的高效性和可应用性。
Jun, 2024
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
本研究提出一种名为 FlowX 的新方法,通过识别重要的信息流来解释图神经网络的工作机制,结果表明 FlowX 能够提高图神经网络解释性。
Jun, 2022
本研究旨在介绍 Shapley 可解释性的一个数学根据和模型独立的框架,但是通常的 Shapley 可解释性实现做了一个不切实际的假设,即模型的特征是不相关的,而作者这里提出了两种策略去解决这个问题,基于生成建模的方法提供灵活的数据归因,另一种直接学习了 Shapley 价值函数,提供了性能和稳定性,但缺陷是没有灵活性,通过我们的研究表明该假设会导致展示效果错误,隐藏敏感性属性的隐含模型依赖性和意义不明的高维数据。
Jun, 2020
采用博弈论方法计算机器学习模型特征重要性的数学问题存在和 Shapley 值并不能很好地解释人类可解释目标的论证以及需要因果推理等技术增加复杂性。
Feb, 2020