使用 DRDA-Net 和 MobileNet 进行乳腺癌分类的轻量级深度学习管道
提出了一种结合深度学习和迁移学习的乳腺癌图像分类模型算法,解决了有限样本、耗时的特征设计和低准确率的问题。这个算法基于深度神经网络的 DenseNet 结构,通过引入注意机制构建网络模型,并使用多级迁移学习对增强的数据集进行训练,实验结果表明,该算法在测试集上达到了 84.0%以上的效率,与之前的模型相比显著提高了分类准确度,适用于医疗乳腺癌检测任务。
Apr, 2024
本研究使用 2453 个组织病理学图像数据集,分离有侵袭性导管癌(IDC)和无 IDC 的数据,分析了预训练的深度迁移学习模型如 ResNet50、ResNet101、VGG16 和 VGG19 在检测乳腺癌方面的应用,研究发现 ResNet50 模型的准确率可达 90.2%,曲线下面积(AUC)率为 90.0%,召回率为 94.7%,不适当损失为 3.5%。
Apr, 2023
通过提出的深度学习方法,利用乳房 X 线摄影图像进行乳腺癌筛查,本研究展示了该方法在早期疾病检测方面具有更高的准确率,从而有可能提升基于乳房 X 线摄影的筛查方法学。
Oct, 2023
为解决发展中国家乳腺癌诊断的延误和患者生存率的不平等问题,本研究开发了一种基于深度学习的转移性乳腺癌诊断系统,具有高诊断准确性和计算效率,能够适应资源匮乏的医疗设施。
Aug, 2023
本文提出了一个基于深度卷积神经网络的乳腺癌筛查检查分类方法,并在超过 200,000 个检查(超过 1,000,000 张图像)上进行了训练和评估。该网络在筛查人群中预测乳腺癌的 AUC 为 0.895,其高准确度的原因是采用了两阶段训练程序,并通过可靠的读者研究验证了准确性。最后,研究发现由我们的神经网络预测恶性概率与放射科医生的预测平均值相结合会更加准确。
Mar, 2019
本研究基于深度卷积神经网络开发了计算方法,用于乳腺癌组织病理图像分类,包括四类和两类(用于检测癌变)分类任务,在高灵敏度操作点上,我们报告了 93.8% 的准确性,97.3% 的 AUC 和 96.5/88.0% 的敏感性 / 特异性,超过了其他常见的自动组织病理学图像分类方法。
Feb, 2018
本文旨在提供一种基于 CNN 和深度学习的乳腺癌检测模型,该模型通过重建微波成像扫描数据并使用多种不同的 CNN 架构进行特征提取和肿瘤检测,最终得出使用 NASNetLarge 模型的 CNN 模型具有较高准确率和较低损失的结论,为微波成像技术在乳腺癌筛查中的应用提供了新的研究方向。
Apr, 2023
本研究提出了一种改进的 MultiResU-Net 用于组织病理学图像分割,该模型通过多尺度分析和分割复杂特征,并通过跳跃连接确保有效的特征传递;改进版本还利用基于高斯分布的注意力机制在高斯分布中合并与组织病理学相关的文本信息;最后,通过对 MultiResU-Net 的跳跃连接采用控制稠密残差块,以从编码器层向解码器层传递信息,使用从提取的空间特征导出的缩放参数,以控制的方式进行传递。验证实验表明,在 TNBC 和 MonuSeg 等两种不同类型的乳腺癌组织病理学图像数据集上,与现有方法相比,该方法展现出卓越的分割性能。该模型的代码可在该 https URL 找到。
Jun, 2024
本研究研究了应用深度学习模型和新兴模型 “Vision Transformer (ViT)” 进行乳腺癌的检测与诊断,结果表明 ViT 模型在准确性和效率方面均优于其他 CNN 架构,实现了 95.15%的准确率。
May, 2023
通过对 BreakHis 数据集中的乳腺癌病例进行深度学习模型的评估,本研究发现 Xception 模型在诊断准确率、F1 得分等方面表现最佳,对于正确诊断乳腺癌具有重要意义,为改进乳腺癌诊断方法和促进新治疗策略的创建做出了重要贡献。
Sep, 2023