文本数据中 LIME 的分析
该文提供了 LIME 算法的首个理论分析,当函数为线性函数时,我们为可解释模型的系数导出了闭式表达式,其中这些系数与被解释函数的梯度成正比,但分析也揭示了 LIME 在选择参数不当时可能会错过重要的特征。
Jan, 2020
本文介绍了一种用于解释任何类型的机器学习模型的流行方法:局部可解释的模型无关解释(LIME)。该方法通过学习围绕预测的简单线性模型来解释一个预测,但其主要缺点是不稳定性。论文提出了一个称为 OptiLIME 的框架,以最大化稳定性,同时保留预定义水平的粘附性,并且对所得到的解释的数学属性进行了明确的突出显示。
Jun, 2020
研究黑盒机器学习模型的解释方法,提出一种基于中心极限定理的假设测试框架方法,名为 S-LIME,以保证解释结果的稳定性,实验结果在模拟和真实数据集上表明该方法的有效性。
Jun, 2021
该论文研究了 LIME 作为解释方法之一在理论上的局限性和与另一解释方法 integrated gradients 的联系,探讨了其在计算机视觉和目标识别领域的应用。
Feb, 2021
本文提出了一种基于中心极限定理的假设检验框架以确定所需扰动点的数量,从而保障解释稳定性的方法 S-LIME,以解决黑箱模型的可解释性问题。对模拟数据集和实际数据集进行的实验表明了该方法的有效性。
Mar, 2022
本文提出一种算法框架 bLIMEy,用于构建定制的本地替代解释器,其中包括 LIME,该框架独立且可互操作,并讨论了组件选择对结果解释器功能能力的影响。
Oct, 2019
本研究介绍了使用 LIME 方法来提高机器学习算法的可解释性,在 Credit Risk 数据案例中测试了 LIME 方法的稳定性和解释效果。
Jan, 2020
提出了确定性局部可解释的模型无关解释技术 (DLIME) 来解决 LIME 技术中由于随机扰动和特征选择方法导致的解释生成不稳定的问题,在三个不同的医疗数据集上实验表明 DLIME 相比 LIME 具有更好的稳定性,这对于在医学 CAD 系统中的部署非常重要。
Jun, 2019
解释黑盒机器学习模型的预测的方法 LIME 存在随机种子不稳定和局部准确率低的问题,通过引入增强框架 GLIME 解决了这些挑战,提供了相对稳定且拥有更高局部准确率的解释。
Nov, 2023