神经网络生成响应曲线的反事实解释
通过 Counterfactual Explanations with Minimal Satisfiable Perturbations (CEMSP) 提供更健壮的解释,同时保留灵活性,以应对多个 Counterfactual explanations 可能导致的不稳定性问题。
Sep, 2023
通过对属性的逻辑因果关系保护,使用黑箱模型作为分类器并利用变分自动编码器生成可行的对抗性示例,本研究在不同基准数据集上实验,成功生成可行且稀疏的对抗性示例,满足所有预定义的因果约束。
Apr, 2024
本研究提出了一种基于化肥响应的管理区(MZ)聚类方法,通过使用卷积神经网络(CNN)生成所有田地内的 N 响应曲线,并利用函数主成分分析对其进行特征化。结果显示,对于 MZ 成员资格影响最大的特征与地形特性相关,例如地势坡度或地势方位等,这些特性可能促进或阻碍化肥径流。
Mar, 2024
我们提供了一个实验证明的深度网络学习过程,可以在此任务上取得强大的性能表现。我们考虑了几种问题形式,包括在未明确提供 “能力” 和行动影响的情况下的公式,因此存在信息挑战和计算挑战。我们的问题也可以看作是在一系列大型但确定性的马尔可夫决策过程(MDPs)中学习最优策略之一。
Apr, 2024
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE 在接近度、稀疏度和可行性方面胜过两种著名的 CE 方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
本文提出了一种新的方法,通过首先将潜空间中的标签无关特征与预定义的输出相结合,以为预先训练的回归器生成对立解释。通过在潜空间中搜索,我们展示了该方法在回归问题设置下重要高维机器学习应用中具有竞争力。
Nov, 2023
本文提出了一种简单但有效的方法来生成可解释神经网络分类决策的反事实案例,并探索了利用生成模型构建坐标系统的方法。文章分析了生成过程并利用定量和定性措施验证了生成的反事实案例的质量。
Jun, 2022