训练模型全局解释的规则归纳
本文研究机器学习算法中普遍存在的可解释性方法,通过不同的解释方法应用到简单的模型中,发现不同之处并提出一种新的方法来比较不同解释间的差异。
Jul, 2022
该研究通过一个众包实验,探讨解释机器学习模型的预测对人类是否具有帮助,并发现在给定特征系数的情况下,人们能够更有效地对线性词袋模型进行操纵,但解释对 BERT 型分类器并没有显著提高操纵能力,而通过伪造 BERT 模型的线性模型的对全局归属的解释则可以有效地操作 BERT 型模型。
Dec, 2021
在可解释人工智能(Explainable AI)中,我们提出了一种模型无关的方法,用于从特定的数据子组中提取规则。该方法通过自动生成数字特征规则,增强了机器学习模型的区域可解释性,并在高维空间中降低了计算成本。在各种数据集和模型的实验中,我们的方法表现出了很好的效果。
Jun, 2024
该研究提出了一种名为 GAM 的方法,可以生成全局归因,解释神经网络预测的全局地貌。该方法在仿真数据和真实数据上得到了验证,并且通过用户研究证明了对实践者的直观性,以提高神经网络决策的透明度。
Feb, 2019
本文提供了一种新颖的量化指标框架,用于解释分类器和回归模型的预测结果,旨在提高人工智能系统的透明度和可信度。应用公开数据集,展示了这些指标如何更全面地理解模型预测,并在决策者和利益相关者之间促进更好的沟通,从而增加人工智能系统的整体透明度和问责度。
Feb, 2023
通过从图神经网络的预测中提取全局概念解释的方法,我们提出了一种超越提高信任和验证模型公平性的 xAI 实践,还能够在几乎没有人类先验直觉的应用领域中发现有价值的科学见解,从而对结构 - 性质关系的任务进行更深入的理解。
Apr, 2024
通过对数据的简单规则的合并构建普通回归和分类模型,生成的规则集在预测准确性方面与最佳方法相当,但其主要优势在于解释和分析相应的输入变量之间的交互作用与影响。技术也被介绍用于自动识别规则中涉及到的变量以及与其相互作用的其他变量等信息,并使用图像来可视化相应数据的效应。
Nov, 2008