追溯一个联盟的输入变量归因
提出基于反事实的两种解释单元级变化的方法,使用博弈论中的 Shapley 值来解释各种输入粒度下的单元级变化,并通过案例研究探讨了这些方法的可靠性和可扩展性。
Jun, 2022
本文提出了一种基于 Shapley 分析实现多智能体系统中个体贡献度评估的方法,并利用层次化知识图谱用于降低计算复杂度,同时通过测试证明了该方法不仅能评估团队中个体的重要性,还能揭示实现最佳策略所需的特征属性。
Dec, 2022
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文分析了 Shapley 值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的 Shapley 值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
在协作联盟游戏中,我们研究了协作联盟为了增加成员的总收益而进行的操纵行为。我们提出了一种新的 Shapley 值的基础,该值是唯一的高效和对联盟操纵免疫的分配规则,它将空置玩家分配为零,并满足弱协作单调性和次协作联盟再分配免疫性。此外,我们还发现对于高效的分配规则,次协作联盟再分配免疫性等价于约束边际性,这是 Young 的边际性公理的一种较弱变体。我们的第二个特征改进了 Young 的特征,从而减弱了边际性内在的独立性要求。
Oct, 2023
我们提出了一种变量重要性度量,基于博弈论中的 Shapley 值,用于量化黑盒函数中各个输入变量的影响。我们的度量基于观察数据分组来计算,连接了可解释 AI 领域的变量重要性度量和全局敏感性分析的函数分解方法,并引入了一个平方 Shapley 值,可以将原来研究中的 Shapley 效应分解到不同的观测数据组之间。
Nov, 2019
该研究提出了一种名为 HarsanyiNet 的新型神经网络结构,可以在进行单次前向传播时推断输入样本和精确计算输入变量的 Shapley 值,并且基于理论基础设计,将 Shapley 值重新制定为由网络编码的 Harsanyi 交互的重新分配。
Apr, 2023
本文探讨了 Shapley 值在归因问题中的多样实现方式及产生的问题,且提出了一种基于独特性原理的技术 Baseline Shapley(BShap),并将其与 Integrated Gradients 进行对比。
Aug, 2019
该研究论文讨论了在机器学习中解释协作游戏的 Shapley 值的应用,特别是在特征归因方面。作者提出了两种主要方法来连接机器学习模型和协同游戏,并讨论了如何在模型和数据之间进行选择。此外,他们提出了一个有效的方法来计算线性模型中 Shapley 值,并在两个实际的数据案例中研究了与特征属性相关的建模选择。
Jun, 2020
该论文提出一种称为 Shapley-Taylor 指数的方法来解决归因问题,并使用交互分布公理将其公理化,并将其应用于模型中以识别有趣的定性洞见。
Feb, 2019