提出 Diff-SCM 来解决如何从观察到的成像数据中估计反事实效果的问题,使用深度结构因果模型和生成式能量模型相结合的方法进行推理,并且在 MNIST 数据和 ImageNet 数据上证明了其优越性。
Feb, 2022
基于潜在扩散模型,引入了潜在扩散反事实解释 (LDCE),用以快速生成反事实实例,并专注于数据的重要、语义部分;通过新颖的共识引导机制过滤出与扩散模型的隐式分类器不一致的嘈杂、对抗性梯度,展示了 LDCE 在各种学习范式下的多样性和黑盒模型行为的理解。
Oct, 2023
本论文提出 DiME 方法,在使用最近传播模型的同时利用引导生成扩散过程,充分利用目标分类器的梯度生成输入实例的反事实解释,进一步通过提出一个新的度量标准 —— 相关差异,分析了目前评估虚假相关性的方法,并进行实验验证,结果表明该算法在 CelebA 上优于之前的最新研究成果。
Mar, 2022
本文提出了一种简单但有效的方法来生成可解释神经网络分类决策的反事实案例,并探索了利用生成模型构建坐标系统的方法。文章分析了生成过程并利用定量和定性措施验证了生成的反事实案例的质量。
Jun, 2022
通过 Concept-guided Latent Diffusion Counterfactual Explanations (CoLa-DCE) 方法生成概念导向的反事实解释,提供更高的控制度和更好的可理解性,以及对模型错误的帮助。
Jun, 2024
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
本研究介绍了一种用于发现概念的新颖框架 CDCT,通过潜在扩散的对偶轨迹,在黑盒模型中发现决策相关的概念,从而在各领域应用可靠的人工智能和进一步发展人类知识方面迈出了一步。
Apr, 2024
本研究提出了一种非统计框架,它使用反事实干预来揭示由解缠组成的网络的模块化结构,以便操纵潜在表示以执行有意义和可控的变换。通过在复杂图像数据集上训练各种生成模型进行实验,表明所获得的模块可用于设计目标干预,从而在风格转换和自动评估对环境变化的稳健性等领域开展应用。
Dec, 2018
通过变分自动编码器在深度学习模型中释放潜在空间的潜力,提出了一种改进的损失函数用于解释非结构化学习架构中的反事实情况,并展示了该方法在近期文献的问题上的有效性。
May, 2024
利用深度学习组件建立结构因果模型 (SCMs) 的一个通用框架,采用正则化流和变分推断实现外生噪声变量的易处理推断,并验证其在 MNIST 和医学图像数据上的有效性,提出了 SCMs 可以回答所有 Pearl 因果逻辑的逆因果推断问题的思路。
Jun, 2020