反事实解释器集成
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
为了解决机器学习模型的可解释性问题,本研究提出了一种基于梯度优化和概率模型逼近的反事实解释方法,可以适用于不可微模型如树模型,并且该方法得出的反事实案例要优于其他针对树模型的反事实方法。
Nov, 2019
该论文通过调查100种不同的反事实解释方法,评估这些方法在心理和计算上的不足,并列出了五个关键的评估缺陷,并提出了标准化基准评估的路线图来解决这些影响该领域科学进展的问题。
Feb, 2021
该研究通过在三种不同类型的机器学习模型上进行基准评估来调查机器学习模型对反事实解释生成的影响,发现不同的机器学习模型对反事实解释生成没有影响,强烈建议进行定性分析来确保反事实解释的稳健分析和潜在偏差的识别。
Mar, 2022
提出了一种新的框架 Model-Agnostic Counterfactual Explanation (MACE),通过采用一种新设计的流水线来有效处理大量特征值上的非可分机器学习模型,其中包括使用基于 RL 的方法来找到良好的对策例子和梯度下降方法来改进相似性。公共数据集上的实验证实了该方法的有效性,具有更好的准确性、稀疏性和相似性。
May, 2022
本文针对可解释人工智能中的对策解释方法(Counterfactual explanations)中存在的异议问题(the disagreement problem)进行了大规模实证研究,发现不同算法生成的解释之间存在高度异议,从而呼吁更多关于算法决策透明度的讨论和实验研究。
Apr, 2023
本文综述了可解释人工智能(XAI)领域中的对抗事实例,这些例子通过指示对实例进行的修改来解释训练决策模型的预测,以改变其相关预测。同时,本文探讨了可解释人工智能中多元对抗事实例的概念定义,讨论了它们的基本原理以及它们依赖的用户需求的假设,并提出了这方面的进一步研究挑战。
May, 2023
提出了一种基于条件置换生成反事实路径的新型可解释性人工智能(XAI)方法,可以在知识图谱中识别与模型预测最相关的特征或特征组合,提供比传统特征加权方法更直观和可解释的模型行为解释,并有助于发现和减轻模型中的偏差。
Jul, 2023