SAM++: 利用语义信息和结构推理增强解剖匹配
Self-supervised Anatomical eMbedding (SAM) is introduced to extract semantic embeddings for imaging pixels with intrinsic structures, which can be used to locate body parts in other images by nearest neighbor searching, surpassing supervised methods trained on 50 labeled images with only one labeled template image and being effective in improving image registration and initializing CNN weights.
Dec, 2020
基于自我监督解剖嵌入(SAM)的 SAMv2 是一个统一的框架,通过学习外观、语义和跨模态的解剖嵌入,克服了医学图像分析中的挑战,提供了一种在基于标志点的医学图像分析任务中表现优异的方法。
Nov, 2023
我们介绍了一种快速而准确的无监督三维医学图像配准方法,利用自我监督的解剖嵌入(SAM)算法在像素级别计算两幅图像之间的密集解剖对应关系,并通过提供更为一致的对应关系和更好的语义引导特征来增强配准步骤,从而显著优于基于数值优化的方法。
Nov, 2023
为了解决不同 FOV 的图像对齐问题,本文提出了一种名为 Cross-SAM 的新方法,该方法利用嵌入学习和 CT-MRI 注册的迭代过程,以实现跨模态匹配,并在 CT-MRI 仿射注册数据集上表现出鲁棒性,明显优于其他方法,达到了最先进的性能。
Jul, 2023
基于统计形状建模(SSM)的对应关系是在临床研究中进行形态学分析的一种强大技术。Point2SSM++ 是一种基于深度学习的自我监督方法,从解剖形状的点云表示中直接学习对应点,旨在克服 SSM 在医学研究中的潜力未被充分利用的问题,并通过广泛的验证证明其在临床应用中的显著优势。
May, 2024
通过将 Segment Anything Model (SAM) 的伪标签作为辅助来增强半监督医学图像分割的学习过程,能够显著提升现有的半监督框架在极为有限的标注图像情况下的性能。
Dec, 2023
给定零样本分割技术基础模型,我们提出了 “语义增强” 的概念,通过指导分割过程并调整结果以适应特定领域的期望,实现了最佳分割技术的快速适应。我们将语义增强应用于 Segment Anything Model(SAM)以获取透射电子显微镜的微观结构分割,通过提取各种中间掩模的几何和纹理特征进行掩模去除和掩模合并操作,结果在三个难度类别的图像上相对于原始的 SAM(ViT-L)分别获得了平均 IoU 增加 21.35%、12.6%、5.27% 和平均假阳性掩模降低 9.91%、18.42%、4.06%。
Apr, 2024
提出了一种快速的粗到细的离散优化方法 SAMConvex,用于 CT 注册,包括根据捕捉局部和全局信息的自监督解剖嵌入器(SAM)特征提取器通过解耦凸优化过程获取变形场。SAMConvex 在两个患者间注册数据集(腹部 CT 和头颈 CT)和一个患者内注册数据集(肺部 CT)上优于现有的基于学习和优化的方法。此外,作为一种基于优化的方法,SAMConvex 仅需要大约 2 秒(使用实例优化约 5 秒)处理一对图像。
Jul, 2023
本研究提出了一种综合且可扩展的 3D SAM 模型,名为 CT-SAM3D,用于全身 CT 分割,通过使用一个(几乎)完全标记的 CT 数据集,建立了一个 3D 可提示的分割模型。我们的模型可以有效地响应更高维度的空间提示,通过减少大规模器官的交互提示工作量,以较少的点击提示显著提高了所有以前基于 SAM 的模型的定量性能。
Mar, 2024
提出 MatSAM,一种基于 SAM 的通用且高效的微观结构提取解决方案,通过设计基于点的提示生成策略,并融合感兴趣区域关键点和网格关键点的提示,以及后处理方法进行定量表征,显著降低材料微观结构的定量表征成本,并加速新材料的设计。
Jan, 2024