Feb, 2019

评估机器学习模型的本地可解释性

TL;DR本文探讨了人们对计算机可解释性的两个定义,即可模拟性和 “what if” 局部解释性。其中,通过对 1000 名参与者进行用户研究,我们测试了人类是否能够在通常被认为是局部可解释的模型上模仿可模拟性和 “what if” 局部可解释性的定义,并发现运行时间操作计数与局部解释性任务的准确性呈负相关关系。此外,我们发现决策树和逻辑回归模型相比于神经网络模型,是更加容易被解释的模型。