对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
本研究的目的是对可解释性(Explainable AI,XAI)领域的现状提供一个视角,并提供解释性和可解释性的新定义,以开始标准化这个研究领域。研究提供了可解释性文献的概述和现有方法的概述,最后提供了不同可解释性方法的初步分类法,为未来的研究打开了大门。
Oct, 2020
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
本研究探讨了一组通常与机器学习分类任务一起使用的著名可解释人工智能 (XAI) 方法,以验证它们是否能被利用,不仅提供解释,而且还可以改善模型本身的性能。研究结果表明,Integrated Gradients 方法构建的解释突出了可用于提高分类性能的输入特征。三个数据集上的实证评估支持了这一结论。
Jun, 2023
通过数据挖掘方法和应用的角度,对深度神经网络进行可解释人工智能(XAI)的综合、数据中心的研究,并将现有工作分为三类:对深层模型的解释、对训练数据的影响以及领域知识的洞察。
Jan, 2024
该论文对 50 多篇与机器学习模型解释袭击和公正性度量有关的研究进行了简要综述,并讨论了如何防御攻击和设计稳健的解释方法。该论文提出了现有 XAI(可解释人工智能)不安全因素的列表,并概述了 Adversarial XAI(AdvXAI)的新兴研究方向。
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024