通过因果归因解释视觉模型
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
通过真实因果关系框架提供一种将特征归因和反事实解释统一的解释方法,通过在 Adult-Income,LendingClub 和 German-Credit 三个基准数据集上的实验,发现 Feature attribution 方法和 counterfactual explanation 方法并不总是一致的,也表明了他们之间的互补性。
Nov, 2020
提出使用因果生成学习作为解释图像分类器的可解释工具,利用生成对事实推理方法研究视觉特征和因果因素对分类器决策的影响,提供了针对可解释因果数据集的对抗解释方法,通过与 OmnixAI 开源工具进行对比,发现我们的方法提供的对事实解释更可解释,适用于生成高度可解释的对事实解释。
Jan, 2024
本研究提出了一种以物体为中心的框架来生成反事实解释,该方法通过将查询图像编码到潜在空间中,以便在物体级别上进行操作,并且可以适用于驾驶场景的反事实解释基准测试,并且设计并运行了用户研究以衡量反事实解释在理解决策模型方面的有用性。
Nov, 2022
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
Jan, 2021
通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
深度生成模型在数据密度估计和有限样本数据生成方面取得了巨大成功。然而,它们存在无法解释性、倾向于引起虚假相关性和在超出分布范围的外推方面表现不佳等一些基本缺点。为了解决这些挑战,可以将因果性理论融入深度生成建模,结构因果模型可以描述数据生成过程并对系统中的变量之间的复杂因果关系和机制进行建模。因此,结构因果模型可以与深度生成模型自然地结合起来,给深度生成模型提供许多有益的属性,如分布偏移鲁棒性、公平性和互操作性。我们提供了一个因果生成建模的技术调研,将其分为因果表示学习和可控反事实生成方法两类。我们关注因果生成模型在公平性、隐私、超出分布泛化和精准医学方面的基本理论、形式化、缺点、数据集、度量和应用。我们还讨论了该领域未解决的问题和未来研究方向。
Oct, 2023