Jul, 2024

CHILLI: 一种面向数据背景的解释可能性干扰方法

TL;DR机器学习模型的可信性对于高风险或伦理敏感的应用非常重要,因为许多模型被视为黑盒子,用户无法理解最终决策的推理或标准。为了解决这个问题,已有的可解释人工智能方法使用扰动数据来近似模型行为。然而,这些方法被批评忽略了特征之间的依赖性,解释基于的数据可能是不现实的。我们提出了一个新颖的框架 CHILLI,通过生成与待解释基本模型的训练数据相符的有上下文意识的扰动,将上下文信息融入可解释人工智能中。实验证明,这种方法提高了解释的完备性和准确性。