NIPSMay, 2017

解释模型预测的统一方法

TL;DR研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。