本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
提出了一种使用随机合作博弈中的 Shapley 值来解释高斯过程的方法,这种方法可以利用高斯过程中存在的完整分析协方差结构,生成可以量化解释不确定性和研究解释之间统计依赖性的解释。同时,还扩展了该框架以解释预测问题。
May, 2023
本文提出一种将 Shapley 值框架用于解释各种预测不确定性的方法,旨在通过量化每个特征对个体模型输出的条件熵的贡献来解释模型输出的不确定度;该方法具有用于协变量转移检测、主动学习、特征选择和主动特征值获取的应用。
Jun, 2023
我们引入了一种新颖的、能够显著简化 Shapley 值计算的自解释方法,并且探索了将概率框架纳入其中以捕捉解释中固有的不确定性,它基于一个新颖的遮蔽神经网络体系结构,在模拟和真实数据集上的评估验证了我们技术的稳健预测和解释性能。
Feb, 2024
本文提出了一个基于不明实体群体分布的 SHAP 得分推理的原则性框架,并通过研究函数最大值和最小值的基本问题来确定所有特征的 SHAP 得分的紧密范围,最终通过实验显示我们的框架可以为更稳健的特征评分做出贡献。
Jan, 2024
本文主要研究如何使用 Monte Carlo 积分或回归来模拟条件期望值以估计 Shapley 值,以及对现有方法进行改进和系统化分类,并进行广泛的模拟和实际数据实验来评估和推荐何时使用不同的方法类。
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
Mar, 2019
本文阐述了价值分配的重要性,提出了一种基于价值分配的学习算法,并通过实证结果证明了该算法的有效性。
Jul, 2017
本文提出了一种概率 Shapley 值(P-Shapley),通过构建一个基于概率分类器的类概率效用函数来量化每个数据点对概率分类器的边际贡献,并提供几种置信度校准的激活函数,从而实现评估数据重要性以构建高可用性和可信赖性 ML 模型的目的。
提出一个新的统计框架 —— 分布 Shapley,其定义了基于潜在数据分布的点的价值,解决了数据 Shapley 框架的限制,并使用该框架开发了一个新的算法,运行速度比计算(非分布式)数据 Shapley 值的最先进算法快两个数量级,对各种数据集进行了应用并证明了它在数据市场环境中的实用性。
Feb, 2020