通过适应最近的 XAI 分类算法并将它们用于多类别图像分割,本文着重于对高分辨率卫星图像中的建筑物分割的研究,引入了一种基于 “熵” 来衡量模型不确定性的新的 XAI 评估方法和指标,以此来提供透明度和可解释性,为图像分割领域的 XAI 研究和遥感应用铺平道路。
Oct, 2023
本研究关注机器学习模型的解释方法,介绍了一种基于 RISE 的改进方法 VRISE,包括使用凸多边形覆盖替代了方形遮挡,并加入信息保证生成器来提高解释准确性和加速收敛速度。实验证明,使用 VRISE 产生的沙漏图更加精确并且不需要过多的计算开销。
Sep, 2022
本研究提出了两种基于 SmoothGrad 和 Grad-CAM++ 方法的实例级解释映射,用于语义分割的高可解释性人工智能模型,通过对白质病变的磁共振成像进行检测和分割,揭示了这些方法的相关性,以及分割病变所需的周围组织信息。
Jun, 2024
这篇论文针对 XAI 在语义图像分割中的应用,提出了第一份全面的综述。文章对应用类别、领域、评估指标和数据集进行了分析和分类,并提出了可解释的语义分割的分类体系,讨论了潜在的挑战和未来研究方向。
May, 2024
通过深度学习和基于多集合的方法对图像进行分割,深度学习方法展示了其优势,并且多集合方法在要求较少计算资源的情况下也能获得令人鼓舞的精确度。
Jul, 2023
近年来,人工智能已成为医疗应用的基本工具。尽管存在快速发展,但深度神经网络仍然是难以解释的黑匣子,这是它们在临床实践中使用的主要限制。我们的重点是医学图像分割任务,目前提出的大多数可解释性方法在视觉解释方面提供输入显著性图。本文旨在扩展、实施和测试一种基于影响力的可解释性算法 TracIn,该算法最初针对分类任务,在具有挑战性的临床问题中,即多模态磁共振成像中的肿瘤脑部的多类别分割。我们通过将网络的潜在表示与 TracIn 输出的相似性连接来验证所提算法的忠实性。我们进一步测试了该算法提供局部和全局解释的能力,并建议它可以作为选择决策过程中使用的最相关特征的工具。该方法适用于所有语义分割任务,其中类是相互排斥的,这是这些情况下的标准框架。
Apr, 2024
该论文提出了一种基于区域的方法来估计图像中特征的重要性,利用多尺度分割产生更具类别区分度和视觉效果的显著图,通过对输入图像进行多尺度分割来构建一个正态分布,并对边界先验进行仿真,证明该方法比传统方法更有效。
Jul, 2018
通过结合贝叶斯神经网络和注意机制,我们提出了一种不确定性感知的 MRI 数据分割模型 BA U-Net,用于高精度且可解释的病理自动筛查的关键首步,我们在公开可用的 BraTS 2020 数据集上使用 F1 分数和交并比(IoU)作为评价指标进行了模型评估。
Nov, 2023
本研究探索使用具備精確及全面物件分割能力的 Segment Anything Model (SAM) 來增強基於概念的可解釋人工智慧 (Explainable AI, XAI) 方法。我們提出了一種稱為 Explain Any Concept (EAC) 的概念解釋方法,可以有效靈活地解釋深度神經網絡 (DNN) 的決策。我們的評估結果表明,EAC 方法在 ImageNet 和 COCO 兩個常用的數據集上的表現非常鼓舞人心,優於常用的 XAI 方法。
May, 2023
研究利用神经网络图像分类器的激活来提取显著性方法的分割,以改善物体定位性能并评估显著性方法的语义一致性。