基于“分段任何事物”的增强提示弱监督癌症分割
提出了一种在弱监督学习下用于疾病定位的方法,使用预训练的深度卷积网络、特征嵌入、以及基于多实例学习的顶部实例和负面证据学习等技术,即使在没有像素级别注释的情况下,仅通过图像级标签进行训练也能够展现出与强监督学习相当的性能。
Feb, 2018
本文提出了一种弱监督整个切片图像分割的框架,利用标准的临床注释,采用多实例学习方案进行模型训练,并在The Cancer Genome Atlas和PatchCamelyon数据集上进行了评估,显示出一定的潜力.
Apr, 2020
使用Segment Anything Model(SAM)结合Class Activation Maps(CAM)生成更高质量的伪标签,用伪标签为特定类提供信号,选择相关的mask并用它们进行标注以产生一个更精确的伪标签,综合我们的方法提高了五种最先进的弱监督语义分割方法的平均伪标签交并比(mIoU)6.2%。
May, 2023
通过引入可训练的类别提示和病理编码器,本研究将Segment Anything Model(SAM)适应于数字病理学中的语义分割任务,进一步通过增加病理基础模型提高了SAM-Path在数字病理学中的语义分割能力,实验证明在两个公共病理学数据集上,可训练类别提示的微调方案在Dice得分上超过手动提示和后处理的SAM27.52%,在IOU得分上超过71.63%,而增加病理基础模型相对提升Dice得分5.07%至5.12%,IOU得分4.50%至8.48%。
Jul, 2023
利用弱监督方法,在细胞分割的任务中使用Segment Anything模型(SAM),通过对象检测器的输出作为测试时的提示信息(D-SAM),以及SAM作为伪掩膜生成器在训练数据上训练一个独立的分割模型(SAM-S),并通过整数规划的方法协调两组分割掩膜,从而实现更高的性能。在公开的细胞分割数据集上进行了实验,结果显示所有基于SAM的解决方案明显优于现有的弱监督图像分割模型,增益在9-15个百分点之间。
Nov, 2023
利用临床报告来实现弱标签监督学习以提高癌症检测的准确性。通过将诊断和肿瘤位置文本提示整合到视觉语言模型的文本编码器中,可以有效地在视觉语言模型的潜在空间中进行弱监督学习的优化,从而提高训练的稳定性。在大规模癌症数据集上的广泛数量实验结果验证了我们的方法可以将人工标注工作量减少至少70%,同时保持与竞争的全监督方法相当的癌症检测准确性(AUC值0.961 vs 0.966)。
May, 2024
我们提出了一种跨提示一致性方法与Segment Anything Model(CPC-SAM)实现半监督医学图像分割,用于从稀缺标记和有价值的未标记数据中有效学习,在两个医学图像分割任务中验证了该方法的优越性。
Jul, 2024
本研究解决了数字病理学中语义分割模型在图像数据稀缺时的局限性,提出了一个可训练的Kolmogorov-Arnold网络分类模块,并引入了迄今为止最大的预训练病理视觉编码器(UNI)。研究表明,经过精细调整后,SAM2-PATH在公共病理数据集上取得了竞争性结果,展现了其在数字病理学中的应用潜力。
Aug, 2024
本研究解决了医学图像分割领域中大型公开注释数据集稀缺的问题。通过利用Segment Anything Model(SAM)生成“伪标签”,并用其训练弱监督的UNet模型,我们发现边界框提示是一种简单有效的生成伪标签的方法。结果表明,该弱监督模型的表现与完全监督模型相当,具有显著的应用潜力。
Sep, 2024