使用 NeRFs 对 3D 中的任何物体进行分割
本研究介绍了 Segment Anything for NeRF in High Quality (SANeRF-HQ) 方法,通过结合 Segment Anything Model (SAM) 和 Neural Radiance Fields (NeRF) 实现了高质量的给定场景中任意对象的三维分割,提高了分割边界的准确性,优于当前 NeRF 对象分割的最新方法,并具备更高的对象定位灵活性和多视图的一致对象分割。
Dec, 2023
我们提出了一种名为 SAMSNeRF 的创新方法,结合了 Segment Anything Model(SAM)和 Neural Radiance Field(NeRF)技术,通过 SAM 生成手术工具的准确分割掩模,在 NeRF 的指导下对动态手术场景进行精细重建,实验结果表明我们的方法成功重建了具有高保真度的动态手术场景,并准确反映了手术工具的空间信息,从而大大提升了手术导航和自动化的效果。
Aug, 2023
SAM3D 是一个创新的框架,通过利用 RGB 图像中的 Segment-Anything 模型而无需进一步训练或微调,能够在 3D 点云中预测掩模,首先预测具有 SAM 的 RGB 图像的分割掩模,然后将 2D 掩模投影到 3D 点中。最后,两个相邻帧的点云掩模以双向合并的方式进行合并,最终可以将不同帧预测出的 3D 掩模逐渐合并为整个 3D 场景的 3D 掩模,实验结果表明 SAM3D 能够在不需要对 SAM 进行训练或微调的情况下,实现合理和细粒度的 3D 分割结果。
Jun, 2023
通过交互式流程而无需任何训练过程和学习参数,本文提出了一种在 3D 高斯中实现对象分割的新方法,称为 SA-GS。通过提出的多视角掩码生成和视图标签分配方法,SA-GS 可以泛化 SAM 以实现 3D 一致的分割,并提出了跨视图标签投票方法来分配不同视图中的标签。实验证明,SA-GS 在 3D 分割结果方面具有高质量,也可以轻松应用于场景编辑和碰撞检测任务。
Jan, 2024
SAM3D 是一种新的半自动零射击 3D 图像分割方法,通过现有的任意分割模型,利用四步策略实现在 3D 图像中快速且准确的分割,可以帮助手术规划和教育、诊断成像以及科学研究。
May, 2024
SAI3D 是一种新颖的零样本三维实例分割方法,通过整合来自 Segment Anything Model (SAM) 的几何先验和语义线索,将三维场景划分为几何原语,然后逐步合并为与多视角 SAM 掩码一致的三维实例分割。通过具有动态阈值机制的分层区域增长算法,进一步提升细粒度三维场景解析的鲁棒性。在 Scan-Net 和更具挑战性的 ScanNet++ 数据集上进行的实证评估表明,我们的方法优于现有的开放词汇基准线,并在 ScanNet++ 上的类别不可知分割中甚至超过了全监督方法。
Dec, 2023
快速交互式的基于 SAM 的三维医学图像分割方法 FastSAM3D 通过层次递进提取复杂 12 层 ViT-B 和轻量级 6 层 ViT-Tiny 变种编码器之间的知识传递,并使用稀疏闪光注意力代替传统的注意力操作符,大幅减少内存需求和提高并行化,从而在相同体积上与 2D SAMs 相比,实现了 527.38 倍的加速,在与 3D SAMs 相比,实现了 8.75 倍的加速,并且性能下降不明显,为常用 GPU 硬件实现低成本、真正交互式的基于 SAM 的三维医学图像分割开辟了道路。
Mar, 2024
借鉴了 Segment Anything Model (SAM) 的方法,我们提出了 SAM3D,该方法针对 3D 体积医学图像,利用 SAM 编码器的预训练特征来捕捉输入图像的意义表示,并通过整体处理 3D 图像而避免了大量参数的训练,实验结果表明,在 3D 医学分割任务中,我们的网络相对于其他最先进的方法具有竞争力且参数效率明显。
Sep, 2023
本论文研究了将语义特征应用于 Neural Radiance Fields(NeRF)以拓展其应用于实现复杂场景中物体的交互。研究提出了使用感知模型的主干特征,通过渲染语义特征,并仅应用感知模型的解码器,从而实现零样本语义分割的框架。同时可以将学习到的语义映射到提取的网格表面以实现实时交互,通过 Segment Anything Model(SAM)还加速了分割 16 倍,并展示实验结果证明了这种方法的有效性和计算优势。
May, 2023
本研究旨在将基础模型的能力发挥在 3D 视觉任务中,在通过 SAM 提出的 BEV 流程管道构建的基础上,通过提高零样例能力实现 3D 物体检测,将其应用于 Waymo 开放数据集,展示其可行性。
Jun, 2023