机器人应用的语义场景分割
本文提出了一个实时语义分割基准测试框架,包括特征提取和解码方法的分离设计,采用不同的网络架构和分割方法,在城市场景的 Cityscapes 数据集上进行了实验,并展示了与 SegNet 相比可实现 143 倍 GFLOPS 减少的优势。
Mar, 2018
本文针对自主行驶场景下的语义分割问题进行了调研,从模型开发、RGB-D 数据集集成、时域信息模型三个方面讨论了目前最相关和最新的深度学习方法,旨在为读者提供关于这一激动人心和具有挑战性的研究领域的最新进展。
Mar, 2023
研究了在自动驾驶汽车中使用的感知方法,发现 FasterSeg 模型在实时低功耗计算设备上运行速度快,并通过比较第一人称和鸟瞰图的准确性和速度,得出 FasterSeg 模型在两种视角的 mIoU 结果并提出了一种生成合成数据的简单方法,并在目标硬件上比较了两种视角的帧率和精度。
Jul, 2022
该论文综述了应用于各种应用领域的基于深度学习技术的图像语义分割方法,描述了该领域的术语和必要的背景概念,并评估了现有方法的贡献和意义,并给出了相应的定量结果和讨论。
Apr, 2017
本文提出了一种高效而健壮的技术,实现了 3D 室内场景的即时密集语义分割和重建,该方法基于高效的超体素聚类方法和来自结构和对象线索的高阶约束的条件随机场,无需预先计算即可进行渐进式密集语义分割。通过对 SceneNN 和 ScanNet 数据集中的不同室内场景进行广泛评估,证明了该技术在定性和定量实验中始终能够产生最先进的分割结果。
Apr, 2018
本文介绍了一种使用 NVIDIA TensorRT 进行优化的高效且稳健的 RGB-D 分割方法,该方法可作为场景分析系统的公共初始处理步骤。我们通过使用 ESANet 在 NYUv2 和 SUNRGB-D 室内数据集上进行评估,展示了 RGB-D 分割优于仅处理 RGB 图像的效果,并证明当网络架构精心设计时仍可实时完成。此外,我们在 Cityscapes 的室外数据集上进行评估,显示了我们的方法也适用于其他应用领域,并展示了我们在一个室内应用场景中的定性结果.
Nov, 2020
介绍了在混乱场景中进行机器人感知的方法,在 Amazon 机器人挑战赛中获得胜利。作者提出了两种策略:一种是基于深度度量学习的方法,另一种是基于全监督语义分割方法的方法,并在数据集上进行了全面分析。两种方法都有良好效果,值得进一步研究。
Sep, 2017
研究表明,语义立体匹配比独立任务能更好地了解机器人、自我导航、增强现实等领域的场景理解。本文提出了一种单一的紧凑型和轻量级架构,通过多阶段的自上而下的估算,使得在任何硬件上和任何应用中都可以获得非常快速的推理,并对特定的应用要求进行准确度和速度的权衡。
Oct, 2019
本文介绍了一种语义分割的方法,通过使用双列网络结构和特定区域的忽略来降低计算成本,并在保证较高质量的前提下实现每秒处理约 15 张高分辨率 Cityscapes 图像的能力,达到了 72.9%的平均交集联合得分。
Dec, 2017
本文提出了一种基于深度学习的机器人物体分割方法,通过解决两个子问题:机械臂与物体与背景的分割和物体与机械臂的分割,实现了无需人工标注数据即可训练网络的自我识别能力,实验证明该方法优于现有最优的自适应手持物体分割算法,并通过测试数据表明使用包含手持物体的自动标注图像的训练集可以提高物体在环境中的分割性能。
Apr, 2019