CALIME:基于因果关系的本地可解释模型无关解释
本文介绍了一种基于 Venn-Abers 的新型特征重要性解释方法 Calibrated Explanations,该方法能校准底层模型、生成特征重要性解释并对概率估计和特征重要性权重进行不确定性量化。此外,该方法对模型没有偏见、规则易于理解、可生成反事实解释和不确定性量化。
May, 2023
通过研究文献,我们发现因果关系和可解释人工智能 (XAI) 是紧密联系的,彼此之间存在三种关系视角:缺乏因果关系限制了当前人工智能与可解释人工智能方法的发展,理想的解释形式的探索,以及因果关系作为可解释人工智能的先导,并通过从因果关系中借用概念、利用反事实以及将因果模型作为自我解释等方式进行研究。通过提供相关软件解决方案,我们为自动化因果任务提供了补充分析,并强调了因果关系和可解释人工智能领域之间的潜在领域桥梁和可能的限制。
Sep, 2023
本论文介绍了一个可解释的人工智能(Explainable Artificial Intelligence)方法,名为 Calibrated Explanations(CE),旨在支持标准回归和概率回归,提供快速、可靠、稳定和强健的解释。CE 对于概率回归表现稳定且速度与 LIME 相当,且不依赖于模型,并具有易于理解的条件规则。
Aug, 2023
该研究提出了一种新的可解释人工智能框架,利用反事实概率和关于因果结构的先验信息,以实现通过因果发现方法和黑盒分类模型来估计因果图并估计解释得分,从而更准确地解释模型的内部机制。通过人工数据的数值实验和信贷评级的实际数据应用,证明了该方法在因果图未知的情况下的有效性。
Feb, 2024
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用 “可理解的人工智能” 标签避免 XAI 的混淆。
Mar, 2024
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
提出了一种基于条件置换生成反事实路径的新型可解释性人工智能(XAI)方法,可以在知识图谱中识别与模型预测最相关的特征或特征组合,提供比传统特征加权方法更直观和可解释的模型行为解释,并有助于发现和减轻模型中的偏差。
Jul, 2023
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
本研究提出了一种基于规则的 Local Universal Explainer(LUX)模型,可以生成事实、反事实和视觉解释,通过修改决策树算法实现倾斜分割和与 SHAP 或 LIME 等特征重要性 XAI 方法的集成。该方法通过选择对解释模型的决策边界形成具有最高影响力的真实数据的高密度聚类的局部概念,而不使用数据生成,测试表明它在简单性、全局保真度和代表性等方面优于当前现有的 LORE、EXPLAN 和 Anchor 等基于规则的解释方法。
Oct, 2023