MICA:通过多级图像概念对齐实现可解释性皮肤病病变诊断
通过引入 Concept-Attention Whitening(CAW)框架,我们提出了一种用于解释性皮肤病变诊断的新方法。CAW 不仅提高了可解释性,还保持了最先进的诊断性能。
Apr, 2024
本文提出了一种可解释性的深度学习模型在诊断黑色素瘤皮损方面的应用,该模型基于概念编码器和硬注意力机制及可视连贯性损失项进行优化,其结果表明该模型优于现有黑盒和概念模型。
Apr, 2023
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
在医疗领域中,应用深度学习进行医学图像分类已成为趋势。然而,这种人工智能系统是极其复杂的 “黑匣子” 模型,难以解释其预测的原因。因此,研究探索可解释的人工智能(XAI)方法,以更好地应用于医学领域。本文通过对卷积神经网络模型进行规范化学图像分类,从三种不同的 XAI 方法对模型进行了可视化的研究和分析。
Dec, 2022
使用现代深度学习方法和可解释人工智能(XAI)来解决皮肤癌检测问题,采用四个先进的预训练模型进行皮肤病变分类,XceptionNet 被确定为表现最佳的模型,本研究展示了深度学习和可解释人工智能(XAI)如何改善皮肤癌诊断,为医学图像分析领域未来的发展奠定了基础。
Dec, 2023
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为 “黑匣子” 运作,其推理方式被遮蔽不可访问,增加了误诊的风险,从而可能导致患者伤害。因此,有一个迫切的需求来培养透明度,在医疗界中确保机器推出的诊断建议的逻辑是清晰可理解的,这种转向透明度不仅是有益的,更是在医疗行业中负责任的人工智能整合关键一步,确保人工智能能够帮助而不是阻碍医务人员的重要工作。
Mar, 2024
本文介绍了一种基于 AI 的医学图像分析框架 ExAID,利用多模式概念解释提供易于理解的文本解释和可视化地图来验证预测结果,用于皮肤病例中的良恶性、依赖的模糊的问题。该框架不仅在临床工作流程中提供诊断界面,还提供了教育模式,可用于数据和模型探索,用于辅助医学研究和教育。通过定量和定性的评估,表明多模方式的解释对于 CAD 辅助方案的效用甚至在错误的预测情况下也是很有用的。该应用是在其他生物医学成像领域中类似应用的基础。
Jan, 2022
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
通过融合领域知识与大型语言模型,Explicd 提出了一种可解释的、以诊断标准为基础的语言辅助诊断框架,不仅模拟了人类专家的决策过程,还提高了医学图像分类性能。
Jun, 2024