本文提出了一种新颖的方法,利用 2D 网络对不同视角进行器官分割训练,并构建一个 3D 立体融合网络(VFN)来融合 2D 分割结果,VFN 相对较浅,包含的参数比大多数 3D 网络少,从而使得我们的框架更加高效,我们提出了一个名为交叉增强的新颖策略,最终在多个具有挑战性的腹部器官上验证了我们的框架在分割准确性和稳定性上优于现有的 2D 和 3D 方法。
借鉴了 Segment Anything Model (SAM) 的方法,我们提出了 SAM3D,该方法针对 3D 体积医学图像,利用 SAM 编码器的预训练特征来捕捉输入图像的意义表示,并通过整体处理 3D 图像而避免了大量参数的训练,实验结果表明,在 3D 医学分割任务中,我们的网络相对于其他最先进的方法具有竞争力且参数效率明显。