基于监督分区的局部可解释模型和效果 (LIME-SUP)
本文提出一种算法框架 bLIMEy,用于构建定制的本地替代解释器,其中包括 LIME,该框架独立且可互操作,并讨论了组件选择对结果解释器功能能力的影响。
Oct, 2019
研究黑盒机器学习模型的解释方法,提出一种基于中心极限定理的假设测试框架方法,名为 S-LIME,以保证解释结果的稳定性,实验结果在模拟和真实数据集上表明该方法的有效性。
Jun, 2021
本文介绍了一种用于解释任何类型的机器学习模型的流行方法:局部可解释的模型无关解释(LIME)。该方法通过学习围绕预测的简单线性模型来解释一个预测,但其主要缺点是不稳定性。论文提出了一个称为 OptiLIME 的框架,以最大化稳定性,同时保留预定义水平的粘附性,并且对所得到的解释的数学属性进行了明确的突出显示。
Jun, 2020
解释黑盒机器学习模型的预测的方法 LIME 存在随机种子不稳定和局部准确率低的问题,通过引入增强框架 GLIME 解决了这些挑战,提供了相对稳定且拥有更高局部准确率的解释。
Nov, 2023
决策树被用于解释支持向量回归模型,并与 LIME 和多元线性回归进行比较。在 5 个数据集上的比较结果表明,决策树在支持向量回归拟合时相对于 LIME 给出较低的 RMSE 值的概率为 87%,结果具有统计学意义。而多元线性回归在支持向量回归模型拟合时相对于 LIME 给出较低的 RMSE 值的概率为 73%,但结果没有统计学意义。此外,在作为本地解释技术使用时,决策树比 LIME 表现更好,结果具有统计学意义。
Apr, 2024
本文提出了一种基于中心极限定理的假设检验框架以确定所需扰动点的数量,从而保障解释稳定性的方法 S-LIME,以解决黑箱模型的可解释性问题。对模拟数据集和实际数据集进行的实验表明了该方法的有效性。
Mar, 2022
提出了确定性局部可解释的模型无关解释技术 (DLIME) 来解决 LIME 技术中由于随机扰动和特征选择方法导致的解释生成不稳定的问题,在三个不同的医疗数据集上实验表明 DLIME 相比 LIME 具有更好的稳定性,这对于在医学 CAD 系统中的部署非常重要。
Jun, 2019
提出了一种称为 LIMASE 的局部可解释模型无关 Shap 说明法,该方法使用 Shapley 值来解释任何模型的预测,提供局部和全局可解释的解释,解决子模块优化问题,为地区解释带来见解,并在与内核解释器相比计算更快。
Oct, 2022
该文提供了 LIME 算法的首个理论分析,当函数为线性函数时,我们为可解释模型的系数导出了闭式表达式,其中这些系数与被解释函数的梯度成正比,但分析也揭示了 LIME 在选择参数不当时可能会错过重要的特征。
Jan, 2020