通过将 Counterfactual Explanations 方法扩展到分布情境,引入了分布式 Counterfactual Explanation(DCE)的概念,该方法通过优化问题来推导一个与事实相吻合并具有统计置信度的反事实分布。同时,通过一系列案例研究验证了该方法在深入理解决策模型方面的潜力。
Jan, 2024
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023
本文旨在在战略环境下寻找最优的政策和对策解释,包括 NP 难的问题,非降性和子模性,用标准贪心算法获得近似保证。最后,我们表明通过将拟阵约束加入问题的制定中,我们可以提高对策解释的最优集合的多样性,并激励整个人口谱上的个体自我改进。
Feb, 2020
提供全局反事实解释问题的简洁表述并建立了比较解决方案的原则标准,使用聚类和决策树作为关键组件的创新算法解决全局反事实问题,并通过与其他方法的综合实验评估验证了算法的能力。
May, 2024
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
我们提供了一个实验证明的深度网络学习过程,可以在此任务上取得强大的性能表现。我们考虑了几种问题形式,包括在未明确提供 “能力” 和行动影响的情况下的公式,因此存在信息挑战和计算挑战。我们的问题也可以看作是在一系列大型但确定性的马尔可夫决策过程(MDPs)中学习最优策略之一。
Apr, 2024
该研究提出了一种多目标反事实解释方法(MOC),将反事实搜索转化为多目标优化问题,通过对特征空间的多样性维护,返回一组不同权衡的反事实,并在实际案例中展示了 MOC 的有用性和与现有方法的对比。
Apr, 2020
该研究提出了一种模型不可知的方法,以计算相对复杂度在不同保护组之间没有显著差异的因果关系解释。
Nov, 2022
该研究提出了一种基于形式验证的算法,使用逻辑公式表示距离函数(目标)和预测模型(约束),解决满足性问题生成最接近的反事实解释,能够生成可行的多样化反事实解释来满足 100% 的覆盖率。
May, 2019
本文提出了一种新的方法 ——C-CHVAE,该方法可以生成可实现的反事实解释,以更好地满足反事实解释的质量要求。
Oct, 2019