双注意力感知的深度卷积神经网络在早期阿尔茨海默病检测中的应用
本研究采用基于CNN-LSTM体系结构的神经模型,使用定向和隐式学习的方法从对话转录中学习,从而检测阿尔茨海默病及相关痴呆疾病的存在,实现了对DementiaBank数据集的新的最先进性能,将参与者分类为AD和对照组的F1分数达到0.929。
Jun, 2019
本文提出了一种基于迁移学习和类分解的方法,用于从磁共振成像数据中检测阿尔茨海默病,该方法以 ImageNet 训练的 VGG19 和 ResNet50 为基础,使用熵分析方法确定最有信息量的图像,其在 AD vs MCI vs CN 分类任务中取得了最佳表现,并比文献中报道的分类准确率高出 3%。
Jan, 2023
本研究提出了一种基于ResNet的端到端3D CNN框架,结合注意力机制作用下获取的多层特征,以更好地捕捉脑部图像的细微差异,用于阿尔茨海默病的诊断。在ADNI数据库的792个受试者上进行了消融实验验证,基于sMRI 和 PET 分别实现了89.71%和91.18%的诊断准确率,并且超过了一些最先进的方法。
Aug, 2023
提出一种基于三维卷积神经网络和双重注意力模块的重现性模型,用于阿尔茨海默病分类,通过在ADNI数据库上训练并在AIBL和OASIS1两个独立数据集上验证,该方法在MCI进展分类方面的准确率达到91.94%,在阿尔茨海默病分类方面的准确率达到96.30%,并具有良好的泛化能力,在AIBL和OASIS1数据集上的准确率分别达到86.37%和83.42%。
Oct, 2023
该研究提出了一种结合了伽玛校正和脑结构专注的神经退化卷积神经网络(SNeurodCNN)的机器学习框架,用于区分早期阿尔茨海默病(AD)和轻度认知障碍(MCI),通过实验证明该模型在诊断及特定脑区变化的准确性、特异性和敏感性方面表现出色,成为早期AD诊断的潜在大脑结构变化数字生物标志物。
Jan, 2024
该研究提出了一种新的多模态神经影像关注机制的卷积神经网络结构,MNA-net,用于预测在10年内正常认知个体是否会发展为轻度认知障碍或阿尔茨海默病。通过使用注意机制形成MRI和PET图像的共享表示,MNA-net在OASIS-3数据集上进行了测试,并具有83%的准确率,80%的真阴性率和86%的真阳性率,相比之前的工作准确率和真阴性率分别提高了5%和10%,这些结果表明了该模型在预测认知衰退方面的潜力和通过融合不同神经影像模态的关注机制来改进预测的能力。
Dec, 2023
通过使用深度学习和图像识别技术,本研究提出了一种基于卷积神经网络的新型阿尔茨海默病检测模型,该模型利用预训练的ResNet网络作为骨干,结合了3D医学图像的后融合算法和注意力机制,实验证明引入的2D融合算法有效降低了模型的训练开销,而注意力机制准确评估了图像中重要区域,进一步提高了模型的诊断准确性。
Jan, 2024
这项研究提出了一种创新的方法来诊断阿尔茨海默病,使用设计用于增强模型决策可解释性的3D MRI。我们的方法采用了软注意力机制,使2D CNN能够提取体积表示。同时,学习每个切片在决策中的重要性,生成了一个能够解释的MRI的体素级注意力图。通过使用阿尔茨海默病神经影像学计划(ADNI)的一个标准化的MRI数据集来测试我们的方法并确保结果的可重复性。在这个数据集上,我们的方法在两个任务中显著优于最先进的方法:(i)将AD与正常认知(CN)区分,准确率为0.856,Matthew's相关系数(MCC)为0.712,分别比第二名提高了2.4%和5.3%;(ii)在区分稳定和进展性轻度认知障碍的预测任务中,准确率为0.725,MCC为0.443,比第二名分别提高了10.2%和20.5%。我们通过采用双重迁移学习策略实现了这一预测结果,增强了对形态变化的敏感性,并促进了早期AD的检测。通过体素级精确度,我们的方法确定了哪些特定区域受到关注,并确定了这些主导脑区域:海马、杏仁核、视角回、下侧脑室。所有这些区域与AD的发展有关。此外,我们的方法在不同的交叉验证折叠中始终找到了相同的与AD相关的区域,证明了其在突出与该疾病的已知病理标志密切相关的区域方面的稳健性和精确性。
Jul, 2024
本研究解决了深度学习模型在阿尔茨海默病(AD)分类中可解释性不足的问题。我们开发了一种定量疾病聚焦策略,提出了疾病聚焦评分(DF评分),以量化模型对AD相关脑区的关注程度。研究结果显示,采用该方法能够提高模型的可解释性,并促进其在临床实践中的应用。
Sep, 2024
本研究针对传统阿尔茨海默病(AD)诊断中灵敏度不足和过程繁琐的问题,提出了一种新的轻量级AD-Lite Net模型。该模型融合了深度可分离卷积和并行连接块,使得特征提取更加明显,并提高了对MRI图像的分类准确性。实验结果显示,AD-Lite Net在多个MRI数据集上显著优于现有CNN模型和一种新兴的视觉变换器(ViT)模型。
Sep, 2024