本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
基于多标准分析的多阶段集成方法能够从 Pareto 前沿中选择一个用于解释机器学习模型预测的可行对策。实验结果表明,该方法能够生成具有吸引力的多种质量度量的可操作对策。
Mar, 2024
针对反事实解释存在的缺陷,提出了一种基于密度加权度量定义的 FEASIBLE 体系,旨在聚焦于提供可执行和可行的路径,生成与底层数据分布一致的二元组和支持的更改路径,从而消除了 Counterfactual 方法中 idiosyncratic 这一问题。
Sep, 2019
本文提出一个利用知识图谱提供反事实解释的框架,并给出了一种计算该解释的算法,并 quantitatively 评估了该框架与用户研究。
May, 2023
本文综述了可解释人工智能(XAI)领域中的对抗事实例,这些例子通过指示对实例进行的修改来解释训练决策模型的预测,以改变其相关预测。同时,本文探讨了可解释人工智能中多元对抗事实例的概念定义,讨论了它们的基本原理以及它们依赖的用户需求的假设,并提出了这方面的进一步研究挑战。
本文介绍了反事实解释的脆弱性并表明其容易被操纵,进一步提出了一个新颖的目标来训练明显公平的模型,在轻微扰动下反事实解释可以找到更低成本的救济措施。然而,我们在贷款和暴力犯罪预测数据集上的实验表明,这些模型可能会不公平地提供低成本的救济措施给特定的子群体。这些发现引起了对当前反事实解释技术可信度的担忧,并希望能启发对健壮性反事实解释的探索。
Jun, 2021
本文探索并规范了在 SCM 框架中的反事实推理的另一种模式 ——backtracking account,并在相关文献和可解释的人工智能领域进行讨论和连线。
Nov, 2022
本研究提出了一种以物体为中心的框架来生成反事实解释,该方法通过将查询图像编码到潜在空间中,以便在物体级别上进行操作,并且可以适用于驾驶场景的反事实解释基准测试,并且设计并运行了用户研究以衡量反事实解释在理解决策模型方面的有用性。
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022