通过引入临床概念到分类过程中,我们提出了一种基于概念瓶颈模型的预处理方法,改善了肺癌检测的分类性能(F1>0.9),同时生成比现有技术更可靠、临床相关的解释,解决了现有后期 XAI 技术在医疗数据上解释能力较差的问题。
Mar, 2024
本文研究基于热图的可解释 AI 方法在图像分类问题中的质量,并且提出了一个新的分布来显示正确预测和错误预测之间的鲜明差异。最后,提出了一种名为 “生成增强解释” 的方法,可生成能够提高预测精度的热图。
Dec, 2021
该研究拟定了 CheXplain 系统,以帮助医生了解和探索基于人工智能的胸透分析,并提出了设计可解释的医学人工智能系统的建议。
Jan, 2020
通过将卷积神经网络(CNN)和可解释人工智能(XAI)相结合的综合框架,该研究在使用 CBIS-DDSM 数据集进行增强的乳腺癌诊断方面进行了介绍。研究结果显示,CNN 和 XAI 的有效合作有助于推进乳腺癌的诊断方法,从而在临床设置中更无缝地集成先进的人工智能技术,并通过提高 AI 决策的可解释性,为医学专业人员和患者提供更好的协作。
Apr, 2024
本文通过利用知识蒸馏策略创造紧凑的深度学习模型,实现了针对复杂诊断的自动化多标签胸部 X 光图像分类,并借助可解释的人工智能提供模型决策的视觉解释,在 ChestX-ray14、CheXpert 和 PadChest 等数据集上取得了较好的性能表现,具备在有限硬件平台上实现的可行性。
May, 2023
在医疗领域中,应用深度学习进行医学图像分类已成为趋势。然而,这种人工智能系统是极其复杂的 “黑匣子” 模型,难以解释其预测的原因。因此,研究探索可解释的人工智能(XAI)方法,以更好地应用于医学领域。本文通过对卷积神经网络模型进行规范化学图像分类,从三种不同的 XAI 方法对模型进行了可视化的研究和分析。
Dec, 2022
本研究使用最先进的可解释人工智能方法,如核密度估计和密度图来解释甲状腺结节诊断应用程序中黑匣子的人工智能模型的预测,以提高医学决策过程的透明度和可理解性,并评估医生和患者对于该模型决策的 XAI 解释的信任度。
Mar, 2023
通过结合医学人工智能和可解释人工智能技术,提出了一种自定义的可解释人工智能框架,应用于人工智能医疗物联网领域,以提高医疗系统的效果,并具备透明和可理解的决策能力。将该框架应用于脑肿瘤检测用例中,得出了准确透明的诊断结果,并且评估结果表明了其出色的性能,实现了高精确度、召回率和 F1 分数,训练准确率达到 99%,验证准确率达到 98%。这种结合高级可解释人工智能技术和基于集成的深度学习方法的框架能够实现精确可靠的脑肿瘤诊断作为医学物联网应用的一种。
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
本文提出了一种基于 CLEVR 视觉问题回答任务的基准评估框架,在十种不同的 XAI 方法上进行比较和评估,结果得到了新的关于 XAI 方法质量和属性的深入认识。
Mar, 2020