I-CEE: 图像分类模型根据用户专业知识定制解释
本文提出了一个针对图像和文本领域使用的人类注意力基准,使用多层人类注意力蒙版的评估方法评估了使用Grad-cam和LIME技术获得的模型显著性解释,并通过比较单层对象分割掩码评估的主观评分和基准阈值不可知的评估方法的效果,表明我们的基准更加有效。同时,本文的实验还揭示了主观评分中的用户偏见。
Jan, 2018
该论文介绍了概念相关传播 (CRP) 方法,该方法结合了本地和全局 XAI 的观点,从而允许回答单个预测的“何时”和“何物”的问题,而无需施加其他限制。作者进一步介绍了相关性最大化的原则,以找到编码概念的有用代表性示例。作者演示了该方法在各种不同的设置中的能力,展示了概念相关传播和相关性最大化如何通过概念地图、概念组合分析和概念子空间的量化调查及其在细粒度决策中的作用,提供更人性化的解释和深入的模型表示和推理见解。
Jun, 2022
本文提出两个自解释图像分类器的新架构,这些分类器通过利用查询图像与样本之间的视觉对应关系,首先解释,然后预测,从而解释了人工智能(AI)预测,并且获得了更高的准确性和更有用的解释。
Jul, 2022
该论文提供了自然基于示例的可解释人工智能领域的现状概述,描述了每种方法的优点和缺点,并比较了它们的语义定义、认知影响和附加价值。希望这将鼓励和促进未来在此领域的工作。
Sep, 2023
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的“黑匣子”性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个“黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个XAI基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过10种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个XAI数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
通过用户研究,本研究评估了可解释人工智能在实际场景中对人类决策的改进效果,结果发现虽然解释有助于用户更准确地描述模型,但对于模型选择和反事实模拟这两个任务,并没有找到使用任何显著改进的证据,这表明对基于显著性的解释的实用性和可能的误解需要谨慎对待。
Dec, 2023
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE在接近度、稀疏度和可行性方面胜过两种著名的CE方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
通过介绍可解释的人工智能(Explainable AI)领域的研究,表明关注图和特征归因图已经成为解释人工智能决策中重要输入特征的常见方式。本研究基于CHM-Corr方法,通过构建一个交互界面,使用户能够直接编辑CHM-Corr提供的初始特征归因图,从而提高对模型输出的理解,并对交互方法进行了用户研究,结果表明交互方法并未提高用户在基于鸟类图像分类的任务上的准确性,进一步需要深入研究提高人工智能与人类的有效互动。
Apr, 2024
通过用户互动,我们提出了一种基于互动的可解释的AI方法,通过修改图像来观察分类结果的变化,使用户能够辨别影响模型决策过程的关键特征,从而将他们的心智模型与模型逻辑对齐。该方法通过用户参与和理解为可解释的AI系统提供了更直观和易于访问的方式。
Apr, 2024