基于 Kullback-Leibler 投影的贝叶斯预测模型的本地可解释性模型无关解释
本文提出了一种可解释性的机器学习算法解释技术 ——LIME,基于该技术可以在一个可解释且可靠的小规模模型内对任何分类器的预测进行解释,从而提高了可信度和可理解性,实现了对于信任度的估计及诸多信任场景的适用性。
Feb, 2016
提出了一种基于不变风险最小化 (IRM) 原则的模型无关局部解释方法,该方法能够稳定、直观地生成高保真度解释,该方法通过消除黑盒函数梯度在附近范围内突然变化的特征,实现了与实际邻居方法相当甚至更好的解释质量,同时没有必要花费过多时间来学习邻居结构。
Jan, 2022
提出了确定性局部可解释的模型无关解释技术 (DLIME) 来解决 LIME 技术中由于随机扰动和特征选择方法导致的解释生成不稳定的问题,在三个不同的医疗数据集上实验表明 DLIME 相比 LIME 具有更好的稳定性,这对于在医学 CAD 系统中的部署非常重要。
Jun, 2019
本文提出一种算法框架 bLIMEy,用于构建定制的本地替代解释器,其中包括 LIME,该框架独立且可互操作,并讨论了组件选择对结果解释器功能能力的影响。
Oct, 2019
本文介绍了一种用于解释任何类型的机器学习模型的流行方法:局部可解释的模型无关解释(LIME)。该方法通过学习围绕预测的简单线性模型来解释一个预测,但其主要缺点是不稳定性。论文提出了一个称为 OptiLIME 的框架,以最大化稳定性,同时保留预定义水平的粘附性,并且对所得到的解释的数学属性进行了明确的突出显示。
Jun, 2020
提出了一种称为 LIMASE 的局部可解释模型无关 Shap 说明法,该方法使用 Shapley 值来解释任何模型的预测,提供局部和全局可解释的解释,解决子模块优化问题,为地区解释带来见解,并在与内核解释器相比计算更快。
Oct, 2022
该文提供了 LIME 算法的首个理论分析,当函数为线性函数时,我们为可解释模型的系数导出了闭式表达式,其中这些系数与被解释函数的梯度成正比,但分析也揭示了 LIME 在选择参数不当时可能会错过重要的特征。
Jan, 2020
解释黑盒机器学习模型的预测的方法 LIME 存在随机种子不稳定和局部准确率低的问题,通过引入增强框架 GLIME 解决了这些挑战,提供了相对稳定且拥有更高局部准确率的解释。
Nov, 2023
本研究介绍了一种新型的基于扰动的多类别解释框架 LIPEx(局部可解释的概率解释),证明 LIPEx 不仅可以局部复制广泛使用的复杂分类模型输出的概率分布,而且还可以提供关于每个被认为重要的特征如何影响每个可能类别的预测概率的见解。研究通过根据概率分布空间中的 Hellinger 距离执行的回归获得解释的矩阵。对文本和图像数据进行的消融测试表明,与其他基于显著性或特征重要性的 XAI 方法相比,LIPEx 指导下从数据中移除重要特征会对底层模型的预测产生更大的变化。研究还表明,与 LIME 相比,LIPEx 在可靠评估解释所需的扰动数量上具有更高的数据效率。
Oct, 2023
本文提出了 GraphLIME,一种用于解释图结构数据的本地可解释模型说明框架,具有高度的解释度和描述性,采用非线性特征选择方法,通过对节点的 N - 跳邻居建立非线性可解释模型,计算 K 个最具代表性特征作为其预测解释。
Jan, 2020