Sep, 2023

事后 XAI 方法中的可预测性与可理解性:用户中心分析

TL;DR评估 LIME 和 SHAP 两种常用工具的用户可理解性和可预测性,发现 SHAP 对于接近模型决策边界的样本提供的解释可理解性显著降低。此外,发现反事实解释和错误分类可以显著增加用户对机器学习模型决策的理解。根据研究结果,提出为未来的事后解释方法提供增加可理解性和可预测性的设计建议。