使用动态线性投影探索非线性模型的局部解释
本文研究了产生于复杂模型后期的线性解释或与上下文解释网络(CENs)一起产生的线性解释。研究主要聚焦于线性解释是否一直是始终如一的或容易引导,同时研究在将其整合到预测过程中时,解释是否会影响模型程序的表现。我们的分析揭示了不同方法产生的解释的某些属性,并建议共同预测和解释的学习模型经常具有优势。
Jan, 2018
本文提出了一个可视化分析工作流程,以支持全局和局部解释的无缝转换,重点是基于时间序列分类的属性和反事实分析,通过采用本地XAI技术(归因),将其应用于传统数据集(图像,文本)来分析时间序列分类,进而生成全局概览。
Jul, 2023
本论文介绍了一个可解释的人工智能(Explainable Artificial Intelligence)方法,名为Calibrated Explanations(CE),旨在支持标准回归和概率回归,提供快速、可靠、稳定和强健的解释。CE对于概率回归表现稳定且速度与LIME相当,且不依赖于模型,并具有易于理解的条件规则。
Aug, 2023
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的“黑匣子”性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个“黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个XAI基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过10种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个XAI数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
通过数据挖掘方法和应用的角度,对深度神经网络进行可解释人工智能(XAI)的综合、数据中心的研究,并将现有工作分为三类:对深层模型的解释、对训练数据的影响以及领域知识的洞察。
Jan, 2024
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的T-Explainer成为了一种有效的特征归因方法。
Apr, 2024
使用计算复杂性理论评估机器学习模型的局部和全局解释性,证明了局部和全局解释之间的对偶性以及某些全局解释形式的独特性,并比较了线性模型、决策树和神经网络在计算解释复杂度方面的差异。
Jun, 2024
本研究针对现有局部可解释人工智能方法在选择适当局部区域时面临的困难问题,提出了新的方法MASALA,该方法能够自动确定每个实例的影响模型行为的局部区域。实验表明,MASALA生成的解释在准确性和一致性上优于现有方法,不再需要用户定义敏感的局部超参数。
Aug, 2024