通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
本文提出了一种新的方法 ——C-CHVAE,该方法可以生成可实现的反事实解释,以更好地满足反事实解释的质量要求。
Oct, 2019
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
通过对属性的逻辑因果关系保护,使用黑箱模型作为分类器并利用变分自动编码器生成可行的对抗性示例,本研究在不同基准数据集上实验,成功生成可行且稀疏的对抗性示例,满足所有预定义的因果约束。
Apr, 2024
提出了 VCNet-Variational Counter Net,这是一个用于回归或分类的模型架构,它能够同时生成预测和接近预测类分布的因果解释,该模型在表格数据集上的实证评估结果表明,其结果与最先进的方法相当竞争。
Dec, 2022
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
研究提出一种新方法 PlausIble Exceptionality-based Contrastive Explanations (PIECE),用于生成黑匣子 CNN 分类器的可信反事实和半事实,称其比文献中的其他方法生成最可信的反事实和半事实。
Sep, 2020
通过利用虚拟的解释接近决策边界的特点,我们提出了一种称为 Counterfactual Clamping Attack (CCA) 的新型模型提取策略,该策略训练一个使用独特损失函数的代理模型,该损失函数将虚拟解释与普通实例区分对待。我们还通过多胞体理论推导出了模型逼近误差与查询数量之间的新的数学关系。实验证明,我们的策略在几个真实世界数据集上提供了改进的目标和代理模型预测一致性。
May, 2024
本研究提出了一种以物体为中心的框架来生成反事实解释,该方法通过将查询图像编码到潜在空间中,以便在物体级别上进行操作,并且可以适用于驾驶场景的反事实解释基准测试,并且设计并运行了用户研究以衡量反事实解释在理解决策模型方面的有用性。
Nov, 2022