阐明单位级变化的根本原因
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本文探讨了可解释人工智能领域中的两种热门解释方式 —— 特征归因和反事实解释,并建立了它们之间的理论联系,证明了它们在一定条件下是等效的,同时进行了实验,验证了这一理论发现。
Jul, 2023
本文提出一种将 Shapley 值框架用于解释各种预测不确定性的方法,旨在通过量化每个特征对个体模型输出的条件熵的贡献来解释模型输出的不确定度;该方法具有用于协变量转移检测、主动学习、特征选择和主动特征值获取的应用。
Jun, 2023
通过真实因果关系框架提供一种将特征归因和反事实解释统一的解释方法,通过在 Adult-Income,LendingClub 和 German-Credit 三个基准数据集上的实验,发现 Feature attribution 方法和 counterfactual explanation 方法并不总是一致的,也表明了他们之间的互补性。
Nov, 2020
本研究旨在介绍 Shapley 可解释性的一个数学根据和模型独立的框架,但是通常的 Shapley 可解释性实现做了一个不切实际的假设,即模型的特征是不相关的,而作者这里提出了两种策略去解决这个问题,基于生成建模的方法提供灵活的数据归因,另一种直接学习了 Shapley 价值函数,提供了性能和稳定性,但缺陷是没有灵活性,通过我们的研究表明该假设会导致展示效果错误,隐藏敏感性属性的隐含模型依赖性和意义不明的高维数据。
Jun, 2020
通过介绍 Asymmetric Shapley values (ASVs) 这种较少限制的框架,本文提出了这种框架可以改善模型解释、为模型预测中的不公平歧视提供测试、在时序模型中支持逐步增量解释以及支持特征选择研究而无需进行模型重新训练。
Oct, 2019
Shapley value explanations are less precise for observations on the outer region of the training data distribution, which has not been systematically addressed in the Shapley value literature.
Dec, 2023
该研究提出了一种新框架 - DBShap,使用 Shapley 值来识别漂移的主要驱动因素,并量化它们的贡献。DBShap 不仅能够量化个体特征在驱动漂移方面的重要性,还能包括输入和输出之间潜在关系的变化作为可能的驱动因素。DBShap 提供的解释可以用于了解漂移的根本原因,并用于使模型对漂移具有鲁棒性。
Jan, 2024