一种一站式的 3D 目标重建和多级分割方法
该论文介绍了一个实时分割和重构系统,利用 RGB-D 图像生成准确而详细的物体三维模型,可以应用于增强 / 虚拟现实、室内设计、城市规划、道路辅助和安全系统等领域。通过采样连续帧以减少网络负载并确保重构质量,采用多进程 SLAM 管道实现并行三维重构,并使用了业界领先的 YOLO 框架进行实例分割,以提高性能和准确性。该系统在室内环境中建立了一个强大的实时系统,对物体分割和重构具有重要的增强效果,也可以扩展到室外场景,为实际应用开辟了众多机会。
Nov, 2023
本文提出了一种新的在线联合检测和跟踪模型 ——TraDeS,该模型充分利用跟踪线索来辅助检测,并通过代价体推断对象跟踪偏移量,用于传播先前对象特征,从而改善当前对象的检测和分割。
Mar, 2021
本研究提出了 MOTSFusion 方法,使用 3D 重建数据改进目标追踪,并使用 2D 光流组成短轨迹,使用 3D 运动信息将这些轨迹合并为长期轨迹,实现对长时间目标完全遮挡下的跟踪。在 KITTI 数据集上的实验表明,相对于其他方法,本研究的基于重建的跟踪方法可以将轨迹数目的 ID 交换率减少超过 50%。
Sep, 2019
通过使用大规模现成的 2D 图像识别模型,探索零样本语义分割 3D 形状的任务。我们的研究表明,现代的零样本 2D 目标检测器比当代的文本 / 图像相似性预测器或甚至零样本 2D 分割网络更适合此任务。我们的核心发现是,使用底层表面的拓扑属性可以从多视角边界框预测中提取精确的 3D 分割图。为此,我们开发了具有拓扑重加权分割任务(SATR)算法,并在 FAUST 和 ShapeNetPart 这两个具有挑战性的基准测试上评估它。在这些数据集上,SATR 实现了最新的性能,并在平均 mIoU 方面至少优于之前的工作 22%。
Apr, 2023
提出了一种全方位理解 3D 场景的通用 3D 分割方法 OmniSeg3D,通过层次对比学习框架将多视图不一致的 2D 分割提升为一致的 3D 特征场,实现了分层分割、多对象选择和全局离散化,并通过大量实验验证了该方法在高质量 3D 分割和准确定义了层次结构方面的有效性,进一步利用图形用户界面实现了灵活的全方位 3D 分割的交互操作。
Nov, 2023
提出了 UniSeg3D,这是一个统一的三维分割框架,可以在一个模型内完成全景、语义、实例、交互、指向性和开放词汇的语义分割任务。该方法将六个任务统一为由相同 Transformer 处理的统一表示,促进了任务间的知识共享,从而提升了对三维场景的综合理解。通过利用任务连接,通过设计知识蒸馏和对比学习方法,在多任务统一化的基础上提高了性能。在三个基准测试中的实验证明了 UniSeg3D 的优越性,即使是那些专门针对特定任务的方法也无法与之相比。希望 UniSeg3D 能够作为一个坚实的统一基准,并激发未来的研究。
Jul, 2024
从大场景中精确重建特定物体的 3D 重建技术进展,提出了一种名为 OMEGAS 的框架,通过分割引导和分析方法,实现了准确的物体分割和背景去除,从而有效地提取 3D 物体网格。
Apr, 2024
本文提出了一种基于单目图像序列和相机位姿的新型物体级重建方法 MOLTR,该方法可在线追踪、重建多个物体,包括物体的运动信息和几何形状信息,并在室内和室外环境的基准数据集上展示了性能优异的表现。
Dec, 2020
本文提出了一种从单一 RGB 图像中检测和重构多个 3D 物体的方法,通过逐步优化检测、对齐和形状重构,选择最佳的几个候选形状,并采用轻量化的重构技术进行快速、端到端的训练。
Dec, 2020
我们提出了一种在线的三维语义分割方法,可以从连续的 RGB-D 帧流中增量重建三维语义地图,适用于具有实时约束的场景,例如机器人技术或混合现实。我们的方法通过联合估计每帧的几何和语义标签来有效提取输入 RGB-D 视频流的信息,并利用 2D 输入和局部 3D 领域的差异进行对语义实体的推理,进而预测场景的增量更新并整合到全局场景表示中,实验结果表明我们的方法相对于现有的在线方法在本地区域产生了改进,并且展示了互补信息可以提升性能的证据。
Nov, 2023