缺失值下的对事实解释
本研究提出一种基于特征交互的有序因果解释框架,通过混合整数线性优化方法寻找合适的特征交互顺序以提供实际决策中的应用。在真实数据集上的实验表明,与无序方法相比,该方法具有良好的效果。
Dec, 2020
我们提供了一个实验证明的深度网络学习过程,可以在此任务上取得强大的性能表现。我们考虑了几种问题形式,包括在未明确提供 “能力” 和行动影响的情况下的公式,因此存在信息挑战和计算挑战。我们的问题也可以看作是在一系列大型但确定性的马尔可夫决策过程(MDPs)中学习最优策略之一。
Apr, 2024
提出了一种简单快速的生成可解释反事实解释的方法,无需辅助模型,使用分类器的预测不确定性,在 IM1 得分方面比现有方法生成更可解释的 CEs。此外,该方法还允许估计 CE 的不确定性,这在医疗等安全关键应用中可能非常重要。
Mar, 2021
通过 Counterfactual Explanations with Minimal Satisfiable Perturbations (CEMSP) 提供更健壮的解释,同时保留灵活性,以应对多个 Counterfactual explanations 可能导致的不稳定性问题。
Sep, 2023
本文研究递归部分履行 (CF) 解释在迭代过程中的行为是否增加或减少了被试的总改进成本,我们提出了一个 IPF 的数学形式化,并理论和实验上证明了不同 CF 算法在 IPF 下表现出截然不同的行为,因此对 CF 算法的研究需要考虑这一因素。
Mar, 2023
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE 在接近度、稀疏度和可行性方面胜过两种著名的 CE 方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
本研究提出了一种系统化方法 —— 概念反事实解释(CCE),旨在利用人类理解的概念(例如,由于条纹不清晰,这只斑马被错误地分类为狗)解释分类器在特定测试样本上出错的原因,并在多个已知的预置模型上验证了 CCE 的有效性及其对于缓解偏差的作用,同时也确认了 CCE 可以对带有噪声偏旁相同的数据进行准确分析。
Jun, 2021
对于机器学习模型的预测结果影响的人来说,反事实解释(CEs)被认为是提供理想算法解决方案的。然而,最近的工作揭示了与获取 CEs 的最新方法相关的严重问题的存在,因此需要采取技术来减轻风险。在这项调查中,我们回顾了快速发展的稳健 CEs 领域的研究,并对其所考虑的稳健性形式进行了深入分析。我们还讨论了现有解决方案及其限制,为未来的发展提供了坚实的基础。
Feb, 2024
通过改进自动编码器的潜空间生成方法,该论文介绍了一种新的生成反事实解释的方法,该方法在保持输入样本特征的同时能有效地返回更接近原始数据的结果,适用于高维机器学习应用。
Jul, 2023