RevealNet: RGB-D 扫描中探索物体背后
本文提出了一种基于 RGB-D 视频序列的多目标跟踪方法,通过联合推断目标的完整几何形状和跟踪它们来提高跟踪的稳健性,通过人工构建目标的视状图像,得到相同实例之间的额外对应关系,从而提高了跟踪的鲁棒性。实验结果表明该方法在动态目标跟踪方面取得了 state-of-the-art 的性能。
Dec, 2020
本文介绍一种新策略,通过边缘检测和翻转截断有符号距离来在 3D 空间中编码颜色信息,同时提出了 EdgeNet,一种能够处理深度和边缘信息的新型端到端神经网络结构,实验结果表明该方法相比现有技术在真实数据上提高了 6.9 % 的性能表现。
Aug, 2019
本研究介绍了 Rfd-Net,该方法通过在原始点云数据中直接检测和重构密集对象表面,摆脱了使用常规网格表示场景的限制,旨在预测可识别高对象性的形状,从而实现全局对象定位和局部形状预测,提高了物体检测的精度,比现有技术研究结果提高了 11 个三维网格交并比。
Nov, 2020
该文提出了一种用于机器人地图实时构建的方法,其中,在实时扫描的同时,使用语义实例识别和多帧数据关联技术来构建基于物体的语义地图。评估结果表明,该方法能够有效地识别和跟踪预测的物体实例,并与最先进的方法竞争。
Mar, 2019
该论文的研究结果表明在深度学习和编码器 - 解码器架构的帮助下,使用光线追踪跳跃连接和混合的 3D 模型表示技术可以从单个图像中重构出 3D 物体模型,并且同样的技术可以从单张图像中重构出多个 3D 物体模型,并处理遮挡问题。
Apr, 2020
本文介绍了 ScanNet 数据集的构建,该数据集包含 2.5M 的视图和 1513 个场景,提供了 3D 摄像机姿势、表面重构和语义分割等信息,并表明使用此数据集可以在 3D 场景理解任务中实现最先进的性能。
Feb, 2017
本文提出了一种基于局部隐式神经表示的方法,使用射线 - 体素对捕获透明物体的深度信息,并在缺失深度数据的情况下,利用迭代式自我纠正模型和大规模合成数据集进一步完善估计,实验结果表明,这种方法在合成和真实数据上均比现有的最佳方法 ClearGrasp 表现显著优越,并将推理速度提高了 20 倍。
Apr, 2021
本文介绍了一种新型的神经网络体系结构:3D-SIS,用于在商品 RGB-D 扫描中进行三维语义实例分割。它结合了几何和颜色信号的联合学习,从而实现了精确的实例预测。该网络利用了高分辨率 RGB 输入和多视角 RGB-D 输入,并在 3D 重建的姿态对准的基础上将 2D 图像与体积网格相结合,实现了 2D 和 3D 特征学习组合,从而达到了超过 13 的 mAP 改进。
Dec, 2018
本文研究使用语义丰富的图像和深度特征进行 RGB-D 图像目标检测问题。我们提出了一种新的地心嵌入深度图像的方法,该方法编码了每个像素相对于地面的高度和重力角度,以及水平视差。我们证明了这种地心嵌入方法比使用原始深度图像更适用于使用卷积神经网络进行特征表示学习。最后,我们使用对象检测器的输出在现有的超像素分类框架中进行语义场景分割,并在我们研究的对象类别中实现了 24%的相对改进。
Jul, 2014
该研究提出了一种基于 SDFNet 的创新方法,可以通过仅仅一张图像实现对物体的三维形状进行准确预测,相对于 GenRe 和 OccNet 方法来说,该方法在对已知和未知物体的形状重建方面实现了最优性能。
Jun, 2020