基于模糊排名的细胞学图像分割的后期融合技术
通过引入附加的解码器头部使用独立的加权损失函数,该研究提出了对数字组织学中核的同时实例分割和分类的多阶段方法,以在高质量实例分割和核分类方面取得了显著的性能改进,并且在 19 种类型的组织上具有广泛的适用性和较低的复杂性。
Aug, 2023
本文介绍了一种在兽医医学中的细胞学图像实例分割的机器学习系统,利用该系统对 11 种不同类型的细胞进行了实验,并在 3 种选定的肿瘤类型上取得了高的平均精度和召回率指标,该数据集的规模也对结果产生了积极的影响。
May, 2023
我们提出的新的 Cyto R-CNN 架构在整个细胞分割方面优于现有算法,同时提供比任何其他模型更可靠的细胞测量,这可能改善数字病理学工作流程,进而提高诊断水平。此外,我们发布的数据集可以用于未来的模型开发。
Jan, 2024
建议使用无人值守的多阶段分割方法进行细胞核的自动、快速、无监督分割,并利用该方法的定量相位信息来介绍新的细胞质和细胞核特征,以提高细胞学诊断的可行性和可解释性。
Nov, 2023
结合多模态成像和深度融合的方法,该研究旨在提高基于人工智能的口腔癌检测的准确性,通过亚甲基蓝染色液基细胞学刷片的亮场和荧光显微镜成像分析,证实荧光成像提供了重要的诊断信息,并且多模态融合方法提高了单模态方法的分类和癌症检测准确性,其中 Co-Attention Fusion Network(CAFNet)模型在测试中表现优秀,F1 分数达到 83.34%,准确率为 91.79%,超越了人类的表现,进一步测试显示对图像配准的精确性优化有助于优化多模态分析的效果,这项研究通过结合深度学习和多模态成像推动了细胞病理学的发展,提高了口腔癌的早期非侵入性检测的准确性,改进了诊断精度和临床工作流程,并且该研究开发的流程也适用于其他细胞学领域。
Jul, 2024
通过提出的 Spatial-Temporal Progressive Fusion Network(STPFNet)在超声视频乳腺病变分割问题中取得了比现有最先进方法更好的病变检测性能。
Mar, 2024
本文提出了一种解释性的、端到端的多模态融合策略 —— Pathomic Fusion,它基于组织学图像和基因组学(突变、CNV、RNA-Seq)特征,模型化跨模式的特征交互,并通过基于门控的注意机制控制每个表示的表现力,以提高生存结果预测的准确性,从而有助于其他医学问题的解决。
Dec, 2019
本文提出了一种弱监督整个切片图像分割的框架,利用标准的临床注释,采用多实例学习方案进行模型训练,并在 The Cancer Genome Atlas 和 PatchCamelyon 数据集上进行了评估,显示出一定的潜力.
Apr, 2020
该研究提出了一种利用 H&E 染色图像的独特光学特性的方法,基于三支 U-Net 架构进行核分割,包括应用分水岭算法进行重叠区域的分离和提高准确性。该方法在 CryoNuSeg 数据集上进行了实验,比现有技术在各项指标上取得了更好的结果,特别是在 AJI 得分方面,证明了三支 U-Net 架构在改进核分割方面的优越性。
Apr, 2024