Polyp-DAM: 基于深度任意模型的息肉分割
该研究介绍了一种开创性的统一库,利用深度模型和分割模型来增强语言 - 视觉模型的零 - shot 理解能力,通过分割和深度分析在符号实例水平上的融合,提供给语言模型细致入微的图像输入,显著推动了图像解释的进展,该库在野外真实图像的多个领域得到验证,展示了通过神经 - 符号一体化整合视觉和语言分析的新途径,为未来研究开启了新方向。
Jun, 2024
通过引入增强型的 Segment Anything Model (ASPS) 方法,借助交叉分支特征增强和不确定性引导的预测规范化,提高了颜色肠癌中基于颗粒的分割的性能。
Jun, 2024
我们提出了一种强大的微调技术,PP-SAM,通过有限的图像使 SAM 适应息肉分割任务,实验结果显示,在推理过程中使用 50 像素扰动的 1-shot、5-shot 和 10-shot PP-SAM 的 DICE 分数分别超过了最新的多项式分割方法 26%、7% 和 5%,推动了 PP-SAM 在其他具有有限样本的医学成像任务中的广泛适用性。
May, 2024
本研究提出了基于 Segment Anything Model (SAM) 的调优模型 Poly-SAM 用于结肠息肉图像的分割,相比已有方法,该模型在结肠息肉分割方面具有优越的性能,集成了两种迁移学习策略的 SAM 模型也能很好地适用于医学图像分割任务,模型代码和权重已开放。
Apr, 2023
在 360 图像方面,通过建立一个新的评估基准和提出一种半监督学习框架,我们展示了一个称为 Any360D 的新 360 深度建模方法的有效性,它在不同场景下具有令人印象深刻的零样本能力。
Jun, 2024
本文使用 Meta AI Research 最近发布的 SAM 模型在医学成像领域的一个关键任务 —— 息肉分割中进行了性能评估,旨在为该领域的发展提供启示,并推动未来更多有趣的工作。
Apr, 2023
本文提出了一个基于深度学习技术的医学图像分割模型,该模型改进了 Segment Anything Model (SAM) 并提出了一个新的模型 ——decoupling SAM (DeSAM),通过解耦 mask 的生成和 prompt 嵌入来提高在自动模式下的泛化能力,实验结果表明 DeSAM 方法比之前的最新领域泛化方法的 dice 分数平均提高了 8.96%(从 70.06% 到 79.02%),并且 DeSAM 方法可以在入门级 GPU 上进行训练。
Jun, 2023
在医学成像中,息肉分割是一个关键问题,引发了许多旨在提高分割掩模质量的方法。尽管当前最先进的技术取得了令人印象深刻的结果,但这些模型的规模和计算成本对实际的行业应用构成了挑战。最近,提出了 Segment Anything Model (SAM) 作为一种稳健的基础模型,显示出对于医学图像分割的适应性的前景。受到这一概念的启发,我们提出了 SAM-EG,这是一个指导小型息肉分割模型来解决计算成本挑战的框架。此外,在这项研究中,我们引入了 Edge Guiding 模块,将边缘信息集成到图像特征中,以帮助分割模型解决当前分割模型在此任务中的边界问题。通过大量实验,我们的小型模型展示了它们的功效,通过达到与最先进的方法相竞争的结果,为息肉分割和医学成像领域的紧凑模型开发提供了一种有希望的方法。
Jun, 2024
通过引入名为 Dense Attention Gate 的新模块,建立了多层特征之间的本地特征关系,同时采用新的嵌套解码器架构来增强语义特征,并与 PVT 主干网络相结合,实现了多层密集特征的层次聚合,从而在多个数据集上取得了最新的性能表现,优于先前的模型。
Mar, 2024
本文提出了 Anything-3D 框架,采用了一系列视觉语言模型和 Segment-Anything 对象分割模型来实现从单个 RGB 图像到 3D 重建的任务,并通过实验验证了其有效性和可靠性。
Apr, 2023