模型无关的监督式本地解释
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
提出了一种称为 LIMASE 的局部可解释模型无关 Shap 说明法,该方法使用 Shapley 值来解释任何模型的预测,提供局部和全局可解释的解释,解决子模块优化问题,为地区解释带来见解,并在与内核解释器相比计算更快。
Oct, 2022
这篇论文探讨了机器学习模型的可解释性和可解释性,特别是关于本地和全局可解释性以及特征重要性和相关性的方法,并提供了一个完整的 Python 软件包来允许未来的研究人员探索这些产品;根据对严重天气预测和亚冰点路面温度预测的 ML 模型开发的研究, 发现有关特征排名和特征效果的解释方法之间存在显着不一致,并提供建议来处理这些分歧;最后,建议在未来的研究中使用 tree interpreter 方法来探究特征效果。
Nov, 2022
本论文提出了一种使用解释模型同时针对多个目标类别进行本地解释的框架,该模型具有更高的解释性和更紧凑的解释,通过广泛的实验验证了该模型具有选择稳定和重要特征的能力。
Jul, 2022
本研究提出了一种名为 GALE 的机器学习模型,旨在提供有关模型全局决策过程的洞见。结果表明,聚合方法的选择很重要,我们的提出的聚合方法能更好地代表特征如何影响模型的预测,并通过识别区分性特征提供全局洞见。
Jul, 2019
使用计算复杂性理论评估机器学习模型的局部和全局解释性,证明了局部和全局解释之间的对偶性以及某些全局解释形式的独特性,并比较了线性模型、决策树和神经网络在计算解释复杂度方面的差异。
Jun, 2024
这篇论文提出一种名为模型抽取的方法,通过构建一个可解释程度更高的模型来近似黑箱模型,从而理解和调试机器学习模型在各种数据集上训练的结果,并在经典强化学习问题中学习控制策略。
Jun, 2017
本文提出了基于树状结构的局部解释机器学习模型方法 LIME-SUP,相较于基于聚类 KLIME 方法,LIME-SUP 具有更好的解释性,并且在实证研究中表现更优。
Jun, 2018
本文在财务领域探讨复杂机器学习模型的解释方法。通过使用生成对抗网络生成合成数据并训练一种新型的分段线性模型,能够提供更好的局部后续模型无关解释,其中包括对单个特征的归因以及对其背景的解释。
Sep, 2020