Oct, 2019
解释反映决策吗?一种以机器为中心的策略来量化可解释性算法的性能
Explaining with Impact: A Machine-centric Strategy to Quantify the
Performance of Explainability Algorithms
Zhong Qiu Lin, Mohammad Javad Shafiee, Stanislav Bochkarev, Michael St. Jules, Xiao Yu Wang...
TL;DR本次研究使用决策影响分析的方法,提出了两个指标来量化深度神经网络的可解释性方法的性能,并对几种最先进的解释性方法(LIME,SHAP,Expected Gradients,GSInquire)在 ResNet-50 深度卷积神经网络上进行了全面分析。实验结果表明,受测试图像中由 LIME 确定的关键区域对网络的决策过程的影响最小,SHAP,Expected Gradients 和 GSInquire 的影响逐渐增加,提出的机器-中心策略有助于推进评估可解释性方法的更好度量和提高深度神经网络的信任度。