Apr, 2024

CAGE:因果感知 Shapley 值用于全局解释

TL;DR鉴于人工智能对我们日常生活的影响越来越大,AI 决策的透明性和可解释性变得越来越重要。与全局解释相关的特征的因果关系和预测重要性在全局解释中提供了一种解释人工智能模型的方式,为了更好地理解预测的特征重要性,我们提出了 CAGE (因果感知的 Shapley 值用于全局解释) 方法,通过引入一种尊重输入特征的因果关系的新型取样过程,将因果知识融入全局解释的实践方法中。我们在合成数据和现实世界数据上评估了我们的方法,并证明与以前的全局解释方法相比,我们的方法不仅更直观,而且更可靠。