通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
通过对属性的逻辑因果关系保护,使用黑箱模型作为分类器并利用变分自动编码器生成可行的对抗性示例,本研究在不同基准数据集上实验,成功生成可行且稀疏的对抗性示例,满足所有预定义的因果约束。
Apr, 2024
本文提出了一种新的方法 ——C-CHVAE,该方法可以生成可实现的反事实解释,以更好地满足反事实解释的质量要求。
Oct, 2019
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
该研究采用反事实解释方法探索医学研究的 “假设场景”,特别关注利用 MRI 特征诊断儿科后颅窝脑肿瘤,并探索反事实的潜在用途并评估其作为医疗研究中的替代方法的可行性和前景。
Jul, 2023
通过梯度优化,引入了一种新的整合方法,为可区分分类模型生成本地、小组和全局反事实解释,以解决全局反事实解释所面临的挑战,并增强了可行性和可信度,从而提高了 AI 模型的可解释性和负责任性。
May, 2024
本文综述分类了反事实解释的研究,包括如何评估和设计反事实解释算法,探讨了反事实解释在机器学习领域中的研究方向和发现的不足之处。
Oct, 2020
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
Jan, 2021
本研究提出了一种新的表示学习框架 - 部分概念瓶颈,该框架将反事实解释作为风险模型的嵌入式属性,有助于研究人员和临床医生改进个性化护理,探索干预的假设性差异效应。
May, 2022
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。