该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
研究提出一种新方法 PlausIble Exceptionality-based Contrastive Explanations (PIECE),用于生成黑匣子 CNN 分类器的可信反事实和半事实,称其比文献中的其他方法生成最可信的反事实和半事实。
Sep, 2020
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
本文探讨了可解释人工智能领域中的两种热门解释方式 —— 特征归因和反事实解释,并建立了它们之间的理论联系,证明了它们在一定条件下是等效的,同时进行了实验,验证了这一理论发现。
Jul, 2023
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022
利用大型语言模型,引入了 XAIstories,通过 SHAP explanations 和 counterfactual explanations 为 AI 预测提供直观的解释。研究结果表明,XAIstories 可能成为真正解释和理解 AI 预测的缺失环节。
Sep, 2023
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
提出使用因果生成学习作为解释图像分类器的可解释工具,利用生成对事实推理方法研究视觉特征和因果因素对分类器决策的影响,提供了针对可解释因果数据集的对抗解释方法,通过与 OmnixAI 开源工具进行对比,发现我们的方法提供的对事实解释更可解释,适用于生成高度可解释的对事实解释。
Jan, 2024