无需掩码的神经元概念标注对医学领域神经网络解释
本文提出了一种名为 E Pluribus Unum Interpretable CNN(EPU-CNN)的新型卷积神经网络模型,它将不同的感知特征——例如颜色或纹理——表示为输入图像的不同表征,并通过分类预测和相对贡献的解释提供了人类可感知的解释,同时在医学等风险敏感领域具有广泛的适用性和可比性。
Aug, 2022
本文提出了一种 Medical Supervised Masked Autoencoder (MSMAE) 模型来解决传统 Masked Autoencoder (MAE) 模型在医学图像分类和分割中存在的问题,通过监督训练精确地遮蔽医学图像以及在微调阶段通过注意力机制指导遮蔽医学图像,显著提高了 MSMAE 模型的计算效率和医学诊断质量。
May, 2023
本文综述了神经影像领域中可解释深度学习模型的当前状态和应用,讨论了其相关方法、挑战和意见,以及如何利用模型解释性捕捉与模型预测相关的解剖和功能性大脑变化,最后讨论了当前做法的局限性,并提供了有关如何引导未来研究方向以使深度学习模型更加可解释并推进对脑疾病科学理解的宝贵见解和指导。
Jul, 2023
通过使用自然语言概念,我们提出了一种建立强大而可解释的医学图像分类器的新范式,有效地解决了深度学习模型在医疗行业应用中学习虚假相关性而不是期望特征以及缺乏可解释性的问题。
Oct, 2023
通过使用JSM作为一种模态无关的工具,我们提出了一种可解释的多模态AD分类模型,它能够为病理性脑变化提供洞察力,从而在模型调试和解释方面具有显著的效果,并且极大地提高了模型的准确性。
Feb, 2024
本文提出了一种描述和解析(DnD)的新方法,利用多模态深度学习的最新进展来产生复杂的自然语言描述,无需带标签的训练数据或预定义的概念选择集。通过广泛的定性和定量分析,我们展示了DnD在提供更高质量神经元描述方面的优越性,并且与最佳基线相比,我们的方法平均提供了最高质量的标签,并且更有可能被选为神经元的最佳解释。
Mar, 2024
通过将卷积神经网络(CNN)和可解释人工智能(XAI)相结合的综合框架,该研究在使用CBIS-DDSM数据集进行增强的乳腺癌诊断方面进行了介绍。研究结果显示,CNN和XAI的有效合作有助于推进乳腺癌的诊断方法,从而在临床设置中更无缝地集成先进的人工智能技术,并通过提高AI决策的可解释性,为医学专业人员和患者提供更好的协作。
Apr, 2024
本研究解决了医疗领域中传统机器学习模型缺乏可解释性的问题。我们提出了一种新颖的神经符号方法,即逻辑神经网络(LNN),来开发可解释的诊断预测模型,并在糖尿病预测案例中取得了比传统模型更高的准确率和AUROC评分。此研究展示了神经符号方法在提高医疗AI可解释性与预测准确性之间的平衡潜力,推动了精准医疗的发展。
Oct, 2024
该研究针对医学图像分析中对于透明和可靠模型的需求,探讨了自我解释人工智能(S-XAI),作为高风险决策领域中可解释人工智能(XAI)的新方法。通过将可解释性直接嵌入深度学习模型的训练过程中,S-XAI能够生成与模型内部决策流程紧密相关的解释,显著增强AI系统在医学应用中的可信性与可靠性。该文献综述了200余篇相关论文,分析了不同成像模式与临床应用的现状及未来研究方向。
Oct, 2024
本研究针对深度生成模型在医学图像分析中的应用,揭示其在模式识别中的能力。我们提出了一种创新的方法,将临床数据转化为文本描述,并引入文本-视觉嵌入机制,使得生成模型能够有效利用信息。实验结果表明,该方法在捕捉特定属性对医学图像模式的影响上,具有显著的有效性和潜在的临床应用价值。
Oct, 2024