基于归因和反事实的时间序列分类视觉解释
本研究提出了一种基于时序多元数据和可解释人工智能的反事实解释算法,该算法能够产生高质量、可视化、近距离和可信的反事实解释,帮助黑匣子模型的解释和决策过程可靠性的提升。
Aug, 2022
本文提出了一种模型无关的案例技术 ——Native Guide,用于生成时间序列分类器的反事实解释,该技术通过突出和修改分类的基础部分来调整已有的反事实情况,并通过两个比较实验的定量和定性结果验证了其优越性。
Sep, 2020
该研究旨在通过提出可自我解释的 Counterfactual Time Series (CounTS) 模型,从而生成针对时间序列预测的反事实和可操作性解释,该模型可以提供更好的反事实解释,同时保持相当的预测准确性,并建立相应的评估方案。
Jun, 2023
本文提出了一种模型无关的基于实例的事后解释性方法,用于时间序列分类。该方法利用形状特征和 TimeGAN 为任意时间序列分类器提供对抗性解释。我们通过对 UCR 时间序列存档中的几个真实单变量时间序列分类任务进行验证,结果表明与最先进的方法相比,Time-CF 生成的对抗实例在近似性、可感知性、合理性和稀疏性四个解释性指标方面表现更好。
Feb, 2024
通过对 127 名志愿者进行对照实验,本研究探讨了因果和反事实解释对于用户预测简单 AI 系统决策的效果及其对解释的满意程度和信任度。发现反事实解释相对于没有说明的控制描述,但没有比因果解释更高的准确性;但反事实解释比因果解释更能满足用户的需要和信任,而且用户更容易理解涉及分类特征的解释。
Apr, 2022
本文介绍了解释在人工智能中的重要性,特别是解释方法的新发展。通过讨论基于属性分数和因果关系的反事实解释法,强调了逻辑推理在处理反事实时的重要性和其对评分计算的作用。
Mar, 2023
提出了一种基于条件置换生成反事实路径的新型可解释性人工智能(XAI)方法,可以在知识图谱中识别与模型预测最相关的特征或特征组合,提供比传统特征加权方法更直观和可解释的模型行为解释,并有助于发现和减轻模型中的偏差。
Jul, 2023
该研究提出了一种新的可解释人工智能框架,利用反事实概率和关于因果结构的先验信息,以实现通过因果发现方法和黑盒分类模型来估计因果图并估计解释得分,从而更准确地解释模型的内部机制。通过人工数据的数值实验和信贷评级的实际数据应用,证明了该方法在因果图未知的情况下的有效性。
Feb, 2024
提供全局反事实解释问题的简洁表述并建立了比较解决方案的原则标准,使用聚类和决策树作为关键组件的创新算法解决全局反事实问题,并通过与其他方法的综合实验评估验证了算法的能力。
May, 2024