开放式端到端的3D物体分割与识别:揭示被遮挡3D物体的全貌
本文介绍了SemanticPaint的实时开源实现,它能够实现几何重建、对象类别分割和3D场景学习;用户可以在佩戴深度相机和虚拟现实头戴设备的情况下,与真实场景进行物理交互并为场景中的对象分配标签,使用在线随机森林机器学习算法对先前未见过的场景部分进行预测,整个过程在实时运行中实现。
Oct, 2015
本研究中,我们利用深度卷积神经网络架构在2D图像和3D空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
本文介绍了一种基于Hierarchical Occlusion Modeling方案的Unseen Object Amodal Instance Segmentation(UOAIS)技术,可以检测出未被发现目标实例上的可见掩蔽、Amoldal掩蔽和遮挡,并在三种基准测试环境中取得了最新的最佳表现,可用于机器人在拾取遮挡物品时。
Sep, 2021
本研究介绍了一种开放词汇的3D实例分割任务,使用零样本学习来提高模型在目标实例分割方面的泛化性,并设计了OpenMask3D方法,该方法使用预测的类别不可知的3D实例掩码来聚合每个掩码的特征,通过多视图融合和基于CLIP的图像嵌入来提高分割的性能。
Jun, 2023
我们提出了一个开放词汇的部分分割(OV-PARTS)基准测试,涵盖了对象级开放词汇语义分割、部分分割和少样本适应能力等三个任务,并分析和使用现有方法的两个流行范例为OV-PARTS提供基础模型。
Oct, 2023
PartSLIP++通过使用预训练的2D分割模型和改进的EM算法,取代其前身的启发式3D转换流程,用于开放世界的3D部分分割任务,表现出更好的性能。
Dec, 2023
鉴于目标物体识别需求,我们介绍了一种称为3D物体推理部分分割的新型细分任务,旨在根据复杂和隐含的文本查询输出一个基于3D物体特定部分的分割蒙版,并提出了一种能够分割3D物体部分的模型,并生成与3D物体分割请求相对应的自然语言解释。
Apr, 2024
通过扩散模型与累积遮蔽学习,我们引入了序列化的不定类目物体的分割,以便在密集的多层视觉场景中准确预测可见和遮挡区域,同时捕捉不可见区域的不确定性和再现被遮挡物体的复杂形状和遮挡顺序分布。
May, 2024
这篇论文介绍了一种基于零样本推理的3D分割新任务,以搜索和定位物体的部件为目标,它超越了先前的类别特定3D语义分割、3D实例分割和开放词汇3D分割的限制。我们设计了一个简单的基线方法,Reasoning3D,能够理解和执行复杂的命令,对具有上下文感知和推理答案的3D网格进行(细粒度的)特定部分分割。该方法利用现成的预训练二维分割网络,由大型语言模型(LLMs)支持,在零样本的方式下解释用户的输入查询。我们的方法具有泛化性,能够根据隐含的文本查询有效地定位和突出显示3D对象的部分,包括这些组成部分的3D对象和真实世界的扫描数据。此外,我们的无训练方法可实现快速部署,并成为未来研究中关于部件级3D(语义)对象理解的可行通用基线,在包括机器人学、物体操作、部件装配、自动驾驶应用、增强现实和虚拟现实(AR/VR)以及医疗应用等各个领域发挥作用。该论文提供了代码、模型权重、部署指南和评估协议。
May, 2024
本研究解决了现有开放词汇3D实例分割方法在细粒度场景实体识别方面的不足,提出了一种名为Search3D的分层开放词汇3D场景表示方法。该方法支持在不同粒度层次上查找实体,并通过构建系统的基准评估,展示其在场景级开放词汇3D部件分割中的卓越效果。
Sep, 2024