该文提供了 LIME 算法的首个理论分析,当函数为线性函数时,我们为可解释模型的系数导出了闭式表达式,其中这些系数与被解释函数的梯度成正比,但分析也揭示了 LIME 在选择参数不当时可能会错过重要的特征。
Jan, 2020
本文介绍了一种用于解释任何类型的机器学习模型的流行方法:局部可解释的模型无关解释(LIME)。该方法通过学习围绕预测的简单线性模型来解释一个预测,但其主要缺点是不稳定性。论文提出了一个称为 OptiLIME 的框架,以最大化稳定性,同时保留预定义水平的粘附性,并且对所得到的解释的数学属性进行了明确的突出显示。
Jun, 2020
本文对 LIME 在文本数据上的使用进行了首次理论分析,发现 LIME 能够对简单模型(决策树和线性模型)提供有意义的解释。
Oct, 2020
解释黑盒机器学习模型的预测的方法 LIME 存在随机种子不稳定和局部准确率低的问题,通过引入增强框架 GLIME 解决了这些挑战,提供了相对稳定且拥有更高局部准确率的解释。
Nov, 2023
本文提出一种算法框架 bLIMEy,用于构建定制的本地替代解释器,其中包括 LIME,该框架独立且可互操作,并讨论了组件选择对结果解释器功能能力的影响。
Oct, 2019
提出了一种基于不变风险最小化 (IRM) 原则的模型无关局部解释方法,该方法能够稳定、直观地生成高保真度解释,该方法通过消除黑盒函数梯度在附近范围内突然变化的特征,实现了与实际邻居方法相当甚至更好的解释质量,同时没有必要花费过多时间来学习邻居结构。
Jan, 2022
本文验证了先前文献指出的 LIME 对于无序数据稳定性较低的趋势,并在文本数据上探索了 LIME 的稳定性。
May, 2023
研究黑盒机器学习模型的解释方法,提出一种基于中心极限定理的假设测试框架方法,名为 S-LIME,以保证解释结果的稳定性,实验结果在模拟和真实数据集上表明该方法的有效性。
Jun, 2021
提出了确定性局部可解释的模型无关解释技术 (DLIME) 来解决 LIME 技术中由于随机扰动和特征选择方法导致的解释生成不稳定的问题,在三个不同的医疗数据集上实验表明 DLIME 相比 LIME 具有更好的稳定性,这对于在医学 CAD 系统中的部署非常重要。
Jun, 2019
本文提出了一种能够利用归纳逻辑程序系统 ALEPH 所得到的逻辑规则来解释分类器决策的方法,并利用图像生成方法 LIME 进行实例和背景知识的学习,通过图像展示了该方法的应用,证明了该方法能够识别图像中的关系,并生成更丰富的解释。