输入特征归因分析的统一框架
这篇论文探讨了机器学习模型的可解释性和可解释性,特别是关于本地和全局可解释性以及特征重要性和相关性的方法,并提供了一个完整的 Python 软件包来允许未来的研究人员探索这些产品;根据对严重天气预测和亚冰点路面温度预测的 ML 模型开发的研究, 发现有关特征排名和特征效果的解释方法之间存在显着不一致,并提供建议来处理这些分歧;最后,建议在未来的研究中使用 tree interpreter 方法来探究特征效果。
Nov, 2022
通过真实因果关系框架提供一种将特征归因和反事实解释统一的解释方法,通过在 Adult-Income,LendingClub 和 German-Credit 三个基准数据集上的实验,发现 Feature attribution 方法和 counterfactual explanation 方法并不总是一致的,也表明了他们之间的互补性。
Nov, 2020
提出了一种新方法,即检测特征交互来构建分层解释,从而可视化不同层级中单词和短语的组合方式,帮助用户理解黑匣子模型的决策过程,并在 LSTMs、CNNs 和 BERTs 三个神经文本分类器的两个基准数据集上进行了评估,通过自动和人工评估实验证明此方法提供的解释既忠实于模型,又易于解释。
Apr, 2020
本文提供了两种流行的解释方法(Occlusion 和 Shapley 值)的模型无关实现,以无限制的交互方式实现不同的属性。利用已纠正的特征归属来生成额外的本地数据,通过在模拟和真实数据实验中展示我们提出的方法如何通过纠正的解释显著提高模型的性能。添加交互式解释以增加活动学习效率,显著优于现有的解释性交互策略。此外,本文探讨了领域专家如何提供足够正确的特征归属来改进模型。
Jun, 2023
本文介绍了共有十种 feature attribution 方法,其中七种是 class-dependent 方法,三种为 distribution-aware 方法,并在三个临床数据集上对其进行了评估,提出 SHAP-KL 和 FastSHAP-KL 两种分布感知的方法,计算 Shapley 值。
Feb, 2023
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024