移动机器人的深度引导自由空间分割
本文针对自动驾驶中的一个基本任务,即识别场景前方可以安全行驶区域,提出了一种新颖实用的方法 —— 在最小程度的人工监督下,利用自由空间的同质纹理和位置特征进行分割,实验结果表明该方法在使用更少的监督情况下比其他弱监督方法表现更好,为自主驾驶系统适应不同类型车辆和环境提供了新的可能性。
Nov, 2017
本文提出了一种高效而健壮的技术,实现了 3D 室内场景的即时密集语义分割和重建,该方法基于高效的超体素聚类方法和来自结构和对象线索的高阶约束的条件随机场,无需预先计算即可进行渐进式密集语义分割。通过对 SceneNN 和 ScanNet 数据集中的不同室内场景进行广泛评估,证明了该技术在定性和定量实验中始终能够产生最先进的分割结果。
Apr, 2018
采用多尺度卷积神经网络直接从图像和深度信息中学习特征实现室内场景的多类别分割,并在 NYU-v2 深度数据集上取得了 64.5% 的准确率,充分说明了适当的硬件(如 FPGA)可以实现实时处理。
Jan, 2013
在室内机器人导航中,我们通过分割模型在 RGB 图像中识别自由空间来提高导航精度。然而,深度学习模型容易受到对抗性攻击的影响,给其真实世界的应用带来了巨大挑战。本研究中,我们在神经网络的隐藏层中发现了漏洞,并引入了一种实用的方法来加强传统的对抗训练。我们的方法采用了一种新的距离损失函数,缩小了干净图像和对抗图像之间的隐藏层差距。实验证明该方法显著提高了模型对对抗扰动的鲁棒性。
Feb, 2024
本文研究利用自监督一次性纹理分割框架和 RGB-D 相机实现鲁棒的可行驶区域分割并在与现有一次性纹理分割模型和两种最先进的室内语义分割模型进行比较的基准研究中表现出极具竞争力的准确性和速度。
Jun, 2023
基于自我监督的深度估计方法已经发展成为一种最小化光度损失的图像重建任务。本文提出了 GAM-Depth,它由梯度感知掩码和语义约束两个新颖的组件构成,以解决室内深度估计中纹理缺失区域的深度一致性问题和物体边界处的深度不一致性。通过分配基于梯度大小的权重,梯度感知掩码实现了对关键区域和无纹理区域的自适应和鲁棒的监督。在室内自我监督深度估计中引入语义约束可以改善物体边界处的深度不一致性,利用预训练分割模型的代理语义标签和共优化网络。实验证明,GAM-Depth 在包括 NYUv2、ScanNet 和 InteriorNet 在内的三个室内数据集上优于现有方法,达到了业界领先的性能,是室内深度估计领域的有意义的进展。我们的代码将在此 https URL 上公开。
Feb, 2024
本研究探索无人驾驶系统中的 freespace 检测,并且利用无监督域自适应的方法来解决数据有限的问题。通过使用 RGB 图片和深度图片生成的表面法线图来提取特征并引入 CCG 模式来改进互相关信息,以达到更好的 freespace 检测效果。
Oct, 2022
本文介绍了一种能够从深度图像中准确高效地推断表面法线信息的新型模块,以及一个能够同时提取并融合 RGB 图像和推理表面法线信息的数据融合卷积神经网络(CNN),并使用一个全新的数据集,该数据集包含在不同照明和天气条件下收集的大规模合成自由空间检测数据,证明了我们提出的算法能够在不同的数据集中取得最佳的性能表现。
Aug, 2020
通过将深度学习与 RGB-D 数据相结合,提出了一种用于高效 3D 实例分割的新方法,该方法通过点状渲染模块将 2D 区域卷积神经网络(Mask R-CNN)模型与深度信息集成,可以识别和分割对象的 3D 实例,实验证明该方法对于支持机器人和智能系统中的物体处理非常有益。
Jun, 2024
本文介绍了一种使用 NVIDIA TensorRT 进行优化的高效且稳健的 RGB-D 分割方法,该方法可作为场景分析系统的公共初始处理步骤。我们通过使用 ESANet 在 NYUv2 和 SUNRGB-D 室内数据集上进行评估,展示了 RGB-D 分割优于仅处理 RGB 图像的效果,并证明当网络架构精心设计时仍可实时完成。此外,我们在 Cityscapes 的室外数据集上进行评估,显示了我们的方法也适用于其他应用领域,并展示了我们在一个室内应用场景中的定性结果.
Nov, 2020