可信吗?探索用于单调模型的可解释机器学习方法
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本文研究基于单调性建立透明机器学习模型的可信度和公平性问题。研究了如何在保持透明性的情况下提高单调性,并提出了神经加性模型的单调树林方法。实验证明,实践中常常违反单调性,但采用单调树林的神经加性模型具有透明性,可信度和公平性。
Apr, 2023
提出了一种称为 LIMASE 的局部可解释模型无关 Shap 说明法,该方法使用 Shapley 值来解释任何模型的预测,提供局部和全局可解释的解释,解决子模块优化问题,为地区解释带来见解,并在与内核解释器相比计算更快。
Oct, 2022
本文讨论超越传统误差测量和图形评估机器学习模型的几种通用的解释方法,包括决策树模型、个体条件期望、局部可解释模型无关解释、偏置度量图和 Shapley 解释;并提供现实应用建议和公共软件示例以复现性检验。
Oct, 2018
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
Oct, 2022
我们的目标是通过从一组同样好的模型中找到符合物理定律并满足利益相关者需求的预期解释的准确模型,进而促进解释能力强的人工智能(XAI)融入科学领域。
Feb, 2024
这篇论文探讨了机器学习模型的可解释性和可解释性,特别是关于本地和全局可解释性以及特征重要性和相关性的方法,并提供了一个完整的 Python 软件包来允许未来的研究人员探索这些产品;根据对严重天气预测和亚冰点路面温度预测的 ML 模型开发的研究, 发现有关特征排名和特征效果的解释方法之间存在显着不一致,并提供建议来处理这些分歧;最后,建议在未来的研究中使用 tree interpreter 方法来探究特征效果。
Nov, 2022
本文回顾了可解释的机器学习,探讨了在自然科学领域应用中的透明度、可解释性和解释性三个核心要素,并提供了结合应用领域的领域知识使用可解释的机器学习的最近科学作品的概述。
May, 2019
本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022