TL;DR从大场景中精确重建特定物体的 3D 重建技术进展,提出了一种名为 OMEGAS 的框架,通过分割引导和分析方法,实现了准确的物体分割和背景去除,从而有效地提取 3D 物体网格。
Abstract
Recent advancements in 3d reconstruction technologies have paved the way for
high-quality and real-time rendering of complex 3D scenes. Despite these
achievements, a notable challenge persists: it is difficult to
通过交互式流程而无需任何训练过程和学习参数,本文提出了一种在 3D 高斯中实现对象分割的新方法,称为 SA-GS。通过提出的多视角掩码生成和视图标签分配方法,SA-GS 可以泛化 SAM 以实现 3D 一致的分割,并提出了跨视图标签投票方法来分配不同视图中的标签。实验证明,SA-GS 在 3D 分割结果方面具有高质量,也可以轻松应用于场景编辑和碰撞检测任务。
通过识别每个高斯函数的紧凑身份编码,我们将高斯函数根据其对象实例或物体成员资格在三维场景中分组,从而实现了高质量的三维重建、分割和编辑,同时通过 SAM 的二维掩模预测和引入的三维空间一致性正则化来监督身份编码,通过 Gaussian Grouping 进一步提出了一种本地高斯编辑方案,用于 3D 对象移除、修复、上色和场景重组等多种场景编辑应用。
介绍了一种新颖的 3D 交互分割方法 Segment Any 3D GAussians (SAGA),通过良好设计的对比训练将由分割基础模型生成的多颗粒度 2D 分割结果高效嵌入到 3D 高斯点特征中,实现了多颗粒度分割和适应各种提示,包括点,涂鸦和 2D 蒙版。SAGA 可以在毫秒内完成 3D 分割,相比先前的 SOTA 加速近 1000 倍。
提出了一种全方位理解 3D 场景的通用 3D 分割方法 OmniSeg3D,通过层次对比学习框架将多视图不一致的 2D 分割提升为一致的 3D 特征场,实现了分层分割、多对象选择和全局离散化,并通过大量实验验证了该方法在高质量 3D 分割和准确定义了层次结构方面的有效性,进一步利用图形用户界面实现了灵活的全方位 3D 分割的交互操作。