NMGrad: 利用弱监督深度学习推进组织病理学膀胱癌分级
本文提出了一种基于注意力机制的多实例学习模型,用于幻灯片级别癌症分级和弱监督区域兴趣检测,并在前列腺癌中进行了实验,其利用可视化显著性图来选择信息瓷砖,提高了细粒度等级分类的性能。
May, 2019
应用深度学习技术分析组织病理图片对于自动预后预测的重要性进行了创新性研究,提出了一个新颖的三部分框架,包括基于卷积网络的组织分割算法、对比学习模块和嵌套多示例学习分类模块。在人工生成的数据和简单的诊断任务上进行了初步验证,并在膀胱癌的预后预测任务中取得了显著的成果,模型的 AUC 分别达到 0.721 和 0.678。
May, 2024
本研究通过联合训练两个数据集以及引入一种梯度更新机制,旨在自控弱监督信号,基于大型弱标记数据集和小型强标记数据集,自动赋予前列腺癌全层切片的格里森分数的任务。我们的方法在与标准格里森评分方法比较时取得了优异的性能。
Nov, 2018
本文提出了一种使用图卷积网络(GCN)进行组织微阵列(TMA)级别标注的弱监督方法,作为格里森分数的客观评级替代方案,并通过对细胞形态学特征的自监督学习,实现了对组织生成、肿瘤细胞群落结构的更好建模。五倍交叉验证结果显示,该方法可以在 TMA 级别标注下达到 0.9659±0.0096 的 AUC 值,具有显著性能提升。
Oct, 2019
通过利用数字病理学和人工智能,该研究探索了 11 种深度神经网络架构在自动化前列腺癌格里森分级中的潜力,重点比较了传统和最新的架构。使用基于 AUCMEDI 框架的标准化图像分类流程,在具有 34,264 个注释组织切片的内部数据集上进行了强大的评估。结果显示不同架构的敏感性各不相同,其中 ConvNeXt 表现最好。值得注意的是,即使在区分紧密相关的格里森分级方面存在挑战,新的架构也取得了优越的性能。ConvNeXt 模型能够在复杂性和泛化能力之间学到平衡。总的来说,该研究为改善前列腺癌诊断效率奠定了基础。
Mar, 2024
本文介绍了一种结合人工和深度神经网络特征提取的分析流程,并直接操作于数字扫描仪所生成的全幅图像上,实现了前列腺癌癌区定位、分级、提取 Gleason 分级的面积比率和细胞 / 结构特征,最终通过对 368 个全幅图像进行测试,成功在區分 Gleason 3+4 和 4+3 的幻灯片方面达到了 75%的总体准确性。
May, 2017
癌症早期诊断是制定有效治疗计划并确保病人健康安全的必要步骤,本研究通过深度学习构建了一个潜在的肿瘤预后分类模型,利用组织病理学图像中有价值的信息,选择了 PatchCamelyon 基准数据集,训练了多层感知器和卷积模型,并评估了其精确度、召回率、F1 得分、准确度和 AUC 得分,结果显示基准卷积模型表现优于基准多层感知器模型。此外,本文还引入了 ResNet50 和 InceptionNet 模型,并使用数据增强,其中 ResNet50 能够超越最先进的模型,最后还通过多数投票和连接集成的方法探索了将迁移学习和分割应用于理解特定特征的未来方向。
Nov, 2023
本文提出了一种基于免疫组织化学和深度学习的数字化前列腺切除切片上细胞分割的新方法,通过该方法可以较为精确地区分上皮组织和其他组织,并对其进行细胞级分割,从而实现对前列腺癌的自动检测和分级。
Aug, 2018
本研究基于深度卷积神经网络开发了计算方法,用于乳腺癌组织病理图像分类,包括四类和两类(用于检测癌变)分类任务,在高灵敏度操作点上,我们报告了 93.8% 的准确性,97.3% 的 AUC 和 96.5/88.0% 的敏感性 / 特异性,超过了其他常见的自动组织病理学图像分类方法。
Feb, 2018
利用深度神经网络和全幅组织病理图像,我们提出了 DeepGleason:一种用于自动 Gleason 评分的开源深度神经网络图像分类系统,展示了其在准确和可靠的 Gleason 评级方面的较高性能。
Mar, 2024