Nov, 2023
通过原型概念解释验证深度模型决策的(非)常规理解
Understanding the (Extra-)Ordinary: Validating Deep Model Decisions with
Prototypical Concept-based Explanations
TL;DR本文提出了一个基于概念的后续解释AI框架,通过原型模型不仅传达了每个实例的决策策略(局部),而且还传达了整体的类别决策策略(全局),从而降低了对人类长期评估的依赖,并使模型验证成为一个直观且可解释的工具。