通过遮蔽输入梯度揭示痴呆检测:一种模型解释性与精确性的 JSM 方法
阿尔茨海默病(AD)是认知能力逐渐下降的最常见的痴呆形式之一。本研究采用结构和功能性 MRI 探究了疾病引起的灰质和功能网络连接变化,并引入基因 SNP 作为第三个通道。我们提出了一种基于深度学习的分类框架,使用 Cycle GAN 生成模块来填补潜在空间中的缺失数据。通过整合梯度的可解释 AI 方法,提取了输入特征的相关性,增强了对学习表示的理解。实验结果表明,我们的模型能够在 CN/AD 分类中达到 SOA,平均测试准确率为 0.926±0.02。对于 MCI 任务,使用预训练模型进行 CN/AD 预测的平均准确率为 0.711±0.01。解释性分析揭示了与 AD 相关的皮层和皮下脑区的重要灰质调节,并确定了感觉运动和视觉静息态网络连接的损伤以及与淀粉样蛋白和胆固醇形成和清除调控相关的生物过程的 SNP 突变作为性能的贡献因素。总体而言,我们的综合深度学习方法在 AD 检测和 MCI 预测方面显示出潜力,同时为重要的生物学洞察提供了新的见解。
Jun, 2024
本研究提出了一种名为 Ensemble XAI 的新型可视化解释方法,它整合了显著性地图、类激活映射和渐变 - 类激活映射,以提供更全面的可视化解释,用于预测输入是否为伪造的仿制品的深度学习预测模型。通过实验评估,该解释方法可以准确地说明深度学习模型的决策过程。
Apr, 2023
本文介绍了一种高效的机器学习方法,即早期 - 后期融合(ELF)方法,其中利用卷积神经网络进行自动特征提取,利用随机森林在小样本数据集上具有竞争力的性能,同时采用了适应各个个体特征的鲁棒的预处理流程,并将图像转换为雅可比域以提高分类的准确性和鲁棒性,实验证明本方法在将阿尔茨海默病分为四个阶段的分类中达到了 97.19%的准确率。
Oct, 2023
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为 “黑匣子” 运作,其推理方式被遮蔽不可访问,增加了误诊的风险,从而可能导致患者伤害。因此,有一个迫切的需求来培养透明度,在医疗界中确保机器推出的诊断建议的逻辑是清晰可理解的,这种转向透明度不仅是有益的,更是在医疗行业中负责任的人工智能整合关键一步,确保人工智能能够帮助而不是阻碍医务人员的重要工作。
Mar, 2024
这项研究提出了一种创新的方法来诊断阿尔茨海默病,使用设计用于增强模型决策可解释性的 3D MRI。我们的方法采用了软注意力机制,使 2D CNN 能够提取体积表示。同时,学习每个切片在决策中的重要性,生成了一个能够解释的 MRI 的体素级注意力图。通过使用阿尔茨海默病神经影像学计划(ADNI)的一个标准化的 MRI 数据集来测试我们的方法并确保结果的可重复性。在这个数据集上,我们的方法在两个任务中显著优于最先进的方法:(i)将 AD 与正常认知(CN)区分,准确率为 0.856,Matthew's 相关系数(MCC)为 0.712,分别比第二名提高了 2.4%和 5.3%;(ii)在区分稳定和进展性轻度认知障碍的预测任务中,准确率为 0.725,MCC 为 0.443,比第二名分别提高了 10.2%和 20.5%。我们通过采用双重迁移学习策略实现了这一预测结果,增强了对形态变化的敏感性,并促进了早期 AD 的检测。通过体素级精确度,我们的方法确定了哪些特定区域受到关注,并确定了这些主导脑区域:海马、杏仁核、视角回、下侧脑室。所有这些区域与 AD 的发展有关。此外,我们的方法在不同的交叉验证折叠中始终找到了相同的与 AD 相关的区域,证明了其在突出与该疾病的已知病理标志密切相关的区域方面的稳健性和精确性。
Jul, 2024
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释决策。研究结果表明,该框架在阿尔茨海默病和认知下降的分类中表现出优异的准确性和面积下曲线(AUC),且显著优于使用体积生物标志物或端到端卷积神经网络(CNN)的 EBM 模型。
Aug, 2023
提出了一种集成声学、认知和语言特征的多模式系统,使用带时间特征的专业人工神经网络以检测阿尔茨海默病和其严重程度,并在 ADReSS 挑战数据集上获得了 83.3%的精度并在 DementiaBank Pitt 数据库上获得了 88.0%的分类精度,验证了无意识语音的通用性和可移植性。
Aug, 2020
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
通过使用黑盒深度学习方法,并结合可解释的人工智能和基于概念的方法,在医学图像分析领域提出一种多模态可解释疾病诊断框架,以实现模型可解释性、高性能和标签效率的平衡。
Jan, 2024