基于实例的 AXIL 加权梯度提升机预测解释
通过计算训练示例的标签和由森林叶子确定的一组权重之间的数量积可以得到一个随机森林预测;因此,每个预测可以由这些权重非零的训练示例集来解释。研究发现,这种解释所涉及的示例数量与训练集的维度和随机森林算法的超参数有关,这意味着可以通过变化这些参数在一定程度上控制每个预测所涉及的示例数量。然而,对于导致所需预测性能的设置而言,每个预测所涉及的示例数量可能过大,使用户无法掌握解释。为了提供更有用的解释,提出了一种修改后的预测过程,只包括具有最高权重的示例。对回归和分类任务的研究表明,与标准预测过程相比,可以显著减少每个解释中使用的示例数量,同时仍然保持或提高预测性能。
Nov, 2023
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
本文提出了一种自定义加权损失函数,其中考虑了真实 LIME 解释和模型预测 LIME 解释之间的欧几里得距离,用于提高模型的泛化能力,并通过增量学习设置来验证其有效性。与传统损失函数相比,使用自定义加权损失函数的训练程序对于 Google 语音命令数据集上的关键字识别任务表现出 1%的准确率提高,并在与 EWC 相结合的增量学习设置中表现出低信息损失。
Nov, 2022
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本论文提出了一种使用解释模型同时针对多个目标类别进行本地解释的框架,该模型具有更高的解释性和更紧凑的解释,通过广泛的实验验证了该模型具有选择稳定和重要特征的能力。
Jul, 2022
通过组合弱学习者解释的鉴别平均值,可以提高集成方法中解释的鲁棒性。该方法利用后续的 SHAP 方法和随机森林集成进行实施和测试,并取得了成功的结果。通过定量测量获得的改进,并提供了一些关于集成方法中可解释性鲁棒性的见解。
Feb, 2024
本研究探讨了使用 XGBoost 回归方法进行航班起飞延误预测问题,通过建立一个 XGB-CBR 模型,将 XGBoost 模型的特征重要性转换为 CBR 模型中的全局权重来提供全球性的解释,并提供最具可解释性的本地解释,以提供该问题背景下最准确和可解释性的基准模型。
May, 2023
本文讨论超越传统误差测量和图形评估机器学习模型的几种通用的解释方法,包括决策树模型、个体条件期望、局部可解释模型无关解释、偏置度量图和 Shapley 解释;并提供现实应用建议和公共软件示例以复现性检验。
Oct, 2018
本文在财务领域探讨复杂机器学习模型的解释方法。通过使用生成对抗网络生成合成数据并训练一种新型的分段线性模型,能够提供更好的局部后续模型无关解释,其中包括对单个特征的归因以及对其背景的解释。
Sep, 2020
该论文研究了深度学习中可解释人工智能的问题,特别关注了特征加性解释器在特征加性预测器中的适用性,并对特征交互进行评估,结果显示所有解释器在正确归因特征重要性方面最终失败。
Oct, 2023