Anything-3D: 面向野外的单视角任意物体重建
该研究提出了一个用于三维分割的新框架 SA3D,通过密度导向的反渲染将 2D 分割蒙版投影到 3D 蒙版网格,再通过迭代的方式学习准确的 3D 分割结果,实验表明 SA3D 在不同场景下的有效性。
Apr, 2023
Part123 是一种新颖的从单视图图像进行部分感知三维重建的框架,通过扩散模型生成多视角一致图像,并利用 Segment Anything Model (SAM) 生成多视角分割蒙版,然后通过对比学习将 2D 基于部分信息有效地结合到三维重建中,实验结果表明该方法可以在各种物体上生成具有高质量分割部分的三维模型,相较于现有无结构重建方法,该方法产生的部分感知三维模型对于特征保持重建、基本形状拟合和三维形状编辑等重要应用有益。
May, 2024
该研究提出了一种新的方法,使用单个图像进行 3D 重建,生成了一个完整的 360 度 3D 纹理网格,改进于现有方法,具有更好的几何形状和一致性。
Jun, 2023
本文介绍了一种基于像素输入和 3D 刚性类别的输出的自动化流程,通过从现有物体检测数据集中学习可变形的 3D 模型并结合底层模块进行高频率形状细节恢复,实现了在单幅图像中获取真实场景下物体的三维表面重建,通过在最近引入的 PASCAL 3D + 数据集上的全面定量分析和消融研究展示了非常令人鼓舞的自动重建效果。
Nov, 2014
SAM3D 是一个创新的框架,通过利用 RGB 图像中的 Segment-Anything 模型而无需进一步训练或微调,能够在 3D 点云中预测掩模,首先预测具有 SAM 的 RGB 图像的分割掩模,然后将 2D 掩模投影到 3D 点中。最后,两个相邻帧的点云掩模以双向合并的方式进行合并,最终可以将不同帧预测出的 3D 掩模逐渐合并为整个 3D 场景的 3D 掩模,实验结果表明 SAM3D 能够在不需要对 SAM 进行训练或微调的情况下,实现合理和细粒度的 3D 分割结果。
Jun, 2023
用于高质量 3D 捕捉的 CAT3D 方法模拟实际捕捉过程中的多视图扩散模型,通过给定任意数量的输入图像和一组目标新视点,生成高度一致的场景新视图,可用作强大的 3D 重建技术的输入,以实时渲染任意视点的 3D 表示。CAT3D 在短短一分钟内就可以创建完整的 3D 场景,并优于现有的单张图片和少视图 3D 场景创建方法。
May, 2024
本研究旨在将基础模型的能力发挥在 3D 视觉任务中,在通过 SAM 提出的 BEV 流程管道构建的基础上,通过提高零样例能力实现 3D 物体检测,将其应用于 Waymo 开放数据集,展示其可行性。
Jun, 2023
OV-SAM3D 是一个通用框架,用于不需要训练即可理解任何 3D 场景的开放词汇三维场景理解,通过使用 Segment Anything Model (SAM) 生成超点并通过 Recognize Anything Model (RAM) 的开放标签和操作表,结合超点和分割掩模生成最终的 3D 实例,经过对 ScanNet200 和 nuScenes 数据集的实证评估,我们的方法在未知的开放世界环境中超越了现有的开放词汇方法。
May, 2024
该研究通过提出 Segment Any RGBD(SAD)模型来解决 Segment Anything Model(SAM)对几何信息关注不足的问题,该模型将 SAM 与深度图像渲染相结合,同时包括了开放词汇的语义分割,实现了 3D 万象分割。
May, 2023
SAI3D 是一种新颖的零样本三维实例分割方法,通过整合来自 Segment Anything Model (SAM) 的几何先验和语义线索,将三维场景划分为几何原语,然后逐步合并为与多视角 SAM 掩码一致的三维实例分割。通过具有动态阈值机制的分层区域增长算法,进一步提升细粒度三维场景解析的鲁棒性。在 Scan-Net 和更具挑战性的 ScanNet++ 数据集上进行的实证评估表明,我们的方法优于现有的开放词汇基准线,并在 ScanNet++ 上的类别不可知分割中甚至超过了全监督方法。
Dec, 2023