用扩散距离和方向连贯性增强反事实解释搜索
通过 Concept-guided Latent Diffusion Counterfactual Explanations (CoLa-DCE) 方法生成概念导向的反事实解释,提供更高的控制度和更好的可理解性,以及对模型错误的帮助。
Jun, 2024
本论文提出 DiME 方法,在使用最近传播模型的同时利用引导生成扩散过程,充分利用目标分类器的梯度生成输入实例的反事实解释,进一步通过提出一个新的度量标准 —— 相关差异,分析了目前评估虚假相关性的方法,并进行实验验证,结果表明该算法在 CelebA 上优于之前的最新研究成果。
Mar, 2022
本文介绍了一种在黑盒模型特征空间中计算特征重要性的新方法,并利用信息融合技术将特征反事实解释转化为图像反事实解释。实验结果表明,我们的方法生成的反事实解释在像素和特征空间上与原始图像非常相似,并且表现优于已有的基准模型,获得了令人印象深刻的实验结果。
May, 2024
基于潜在扩散模型,引入了潜在扩散反事实解释 (LDCE),用以快速生成反事实实例,并专注于数据的重要、语义部分;通过新颖的共识引导机制过滤出与扩散模型的隐式分类器不一致的嘈杂、对抗性梯度,展示了 LDCE 在各种学习范式下的多样性和黑盒模型行为的理解。
Oct, 2023
该研究提出了一种基于形式验证的算法,使用逻辑公式表示距离函数(目标)和预测模型(约束),解决满足性问题生成最接近的反事实解释,能够生成可行的多样化反事实解释来满足 100% 的覆盖率。
May, 2019
用户研究表明,升向因果解释(upward CFE)可提高模型和用户的效率和知识水平,并强调了混合因果解释(mixed CFEs)相对于降向因果解释(downward CFEs)或无解释的潜在益处。
Jun, 2023
本文研究了一种全局化的视觉反事实解释方法,通过发现扩散自动编码器的潜在空间可以编码给定分类器的推理过程,提出一种新的基于代理的方法,以完全黑盒方式推断出两种全局反事实方向(GCDs),并展示了与潜在综合梯度相结合的新的黑盒归因方法,同时加强了对反事实解释的理解。
Apr, 2024
本文介绍了一种被称为反事实知识蒸馏 (CFKD) 的新技术,通过人类专家反馈帮助检测和消除深度学习模型对混淆因素的依赖。该技术在受监管或安全关键领域有着重要作用,论文还展示了反事实解释相对于其他类型解释的优点,并提出了一个实验方案来定量评估 CFKD 的成功情况以及能够对模型提供反馈的不同教师。同时还引入了一个与真实测试性能更相关的新度量方式。通过在合成增强数据集和真实组织病理学数据集上进行的实验,论文证明了 CFKD 的有效性。
Oct, 2023