本文提出了一种模型无关的案例技术——Native Guide,用于生成时间序列分类器的反事实解释,该技术通过突出和修改分类的基础部分来调整已有的反事实情况,并通过两个比较实验的定量和定性结果验证了其优越性。
Sep, 2020
本文综述分类了反事实解释的研究,包括如何评估和设计反事实解释算法,探讨了反事实解释在机器学习领域中的研究方向和发现的不足之处。
Oct, 2020
文中提出了一种可以理解的概率异常检测器,可以通过高级概念描述其响应的原因,并且是首个将对象交互考虑在内并提供异常解释的任务。
Jun, 2021
LORELEY 是一个可解释的AI技术,在预测业务流程监控中提供了可接受的对事实解释以及对事实的否定解释,根据业务流程监控中的控制流约束生成了逼近预测模型并且生成逼真的反事实解释。
Feb, 2022
文章提供了一个基于可解释性和解释性方法的误差检测通用方法,并使用集成梯度方法来减少Attribution Error。
Jul, 2022
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
本文综述了可解释人工智能(XAI)领域中的对抗事实例,这些例子通过指示对实例进行的修改来解释训练决策模型的预测,以改变其相关预测。同时,本文探讨了可解释人工智能中多元对抗事实例的概念定义,讨论了它们的基本原理以及它们依赖的用户需求的假设,并提出了这方面的进一步研究挑战。
May, 2023
近年来,在时间序列异常检测方面取得了显著进展,然而,在检测到异常后,我们能够解释它吗?本文介绍了一种领域无关的反事实解释技术,用于产生时间序列异常的直观且可行动的可视化和基于文本的解释。
Jan, 2024
深度学习方法在图像异常检测方面取得了突破,但其复杂性给了解为何实例被预测为异常带来了相当大的挑战。我们提出了一种新的解释方法,为每个异常生成多个反事实示例,捕捉了异常的不同概念。反事实示例是对异常的修改,被异常检测器视为正常。该方法提供了对触发异常检测器机制的高级语义解释,使用户能够探索“假设情景”。在各种图像数据集上进行的定性和定量分析表明,该方法应用于最先进的异常检测器可以实现高质量的语义解释。
Feb, 2024
通过使用基因算法技术,考虑运行时的一系列时间约束条件,我们在预测性过程监控的解释性领域中,为反事实在生成方面进行了改进,以保持时间背景知识的满意度,以及遵循反事实的传统质量指标。
Mar, 2024