利用局部特征解释场景文本识别模型
通过采用解释性人工智能技术和预训练的目标检测器,本文提出了一个名为 TbExplain 的框架,用于针对场景分类模型提供基于文本的解释。此外,TbExplain 还结合了一种新的方法,在初始预测不可靠时基于输入图像中的对象统计数据进行预测校正和文本解释。定性实验结果表明,基于文本的解释是相当可靠的。此外,在场景分类数据集上的定量和定性实验结果显示,TbExplain 相较于 ResNet 变种在分类准确性方面取得了改进。
Jul, 2023
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
本研究探讨了一组通常与机器学习分类任务一起使用的著名可解释人工智能 (XAI) 方法,以验证它们是否能被利用,不仅提供解释,而且还可以改善模型本身的性能。研究结果表明,Integrated Gradients 方法构建的解释突出了可用于提高分类性能的输入特征。三个数据集上的实证评估支持了这一结论。
Jun, 2023
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
利用结构化表格和时间序列生理数据实现了创伤性脑损伤 (TBI) 的短期和长期预测模型,使用六种不同的解释技术分析了局部和全局的预测模型,并对每种方法的优缺点进行了比较,发现 SHAP 是最稳定的,且保真度最高,但理解度低。
Aug, 2022
提出自我监督的自动语义可解释人工智能框架 (AS-XAI),利用透明正交嵌入语义提取空间和行居中主成分分析 (PCA) 来全局语义解释模型决策,在没有人为干预的情况下产生了人可理解的解释。
Dec, 2023
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
介绍和探索社交透明度 (ST) 的概念,该概念将社会组织背景融入到解释人工智能决策的过程中,旨在提高人工智能决策的信任度、改善决策过程、促进组织集体行动和增强说服力。
Jan, 2021