Oct, 2022

机器学习模型的本地可解释模型无关 Shap 解释

TL;DR提出了一种称为 LIMASE 的局部可解释模型无关 Shap 说明法,该方法使用 Shapley 值来解释任何模型的预测,提供局部和全局可解释的解释,解决子模块优化问题,为地区解释带来见解,并在与内核解释器相比计算更快。