May, 2020
评估可解释AI:哪些算法解释有助于用户预测模型行为?
Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior?
TL;DR本文研究机器学习模型的解释方法对模型可解释性方面的影响,通过两类涉及文本和表格数据的模拟测试,评估了五种解释方法的有效性,表明模型可模拟性在分类表格方面使用LIME可以得到改善,而我们的Prototype方法在反事实的模拟测试中也是有效的。本文的结果显示,我们需要对评估解释方法的指标进行谨慎处理,并且当前方法仍有很大的改进空间。