RGB-D 目标检测与语义分割用于杂乱环境中的自主操作
本文提出了一种基于深度学习的机器人物体分割方法,通过解决两个子问题:机械臂与物体与背景的分割和物体与机械臂的分割,实现了无需人工标注数据即可训练网络的自我识别能力,实验证明该方法优于现有最优的自适应手持物体分割算法,并通过测试数据表明使用包含手持物体的自动标注图像的训练集可以提高物体在环境中的分割性能。
Apr, 2019
通过将深度学习与 RGB-D 数据相结合,提出了一种用于高效 3D 实例分割的新方法,该方法通过点状渲染模块将 2D 区域卷积神经网络(Mask R-CNN)模型与深度信息集成,可以识别和分割对象的 3D 实例,实验证明该方法对于支持机器人和智能系统中的物体处理非常有益。
Jun, 2024
本文提出一种从多个 RGB-D 视图中进行对象类语义分割的新方法,使用深度学习训练神经网络进行预测,同时借助于 RGB-D 的 SLAM 获取摄像机轨迹,实现多视图一致性训练和测试。实验结果表明,与单视图基准线相比,深度特征池化和多视角融合可以在 NYUDv2 数据集上实现单视图语义分割和多视图语义融合的最新性能。
Mar, 2017
本文提出了一种基于 RGB-D 传感器的道路机器人避障系统,使用两阶段语义分割网络生成语义地图以便进行局部路径规划,采用光流监督和运动模糊增强的训练方法,实现室内外道路机器人的无碰撞自主导航。
Aug, 2019
使用卷积神经网络,采用 RGB-D 架构,通过两个不同模式的 CNN 处理流程结合延迟融合网络来识别物体,同时引入多阶段训练方法以及进行数据增强方案,使得处理 RGB-D 图像更加健壮,同时在真实嘈杂环境中取得了最先进的识别结果。
Jul, 2015
本文提出了一种使用 RGBD sensing 的增量学习方法来进行开放式世界的语义分割,使用三维地图表示方法来标记没有语义标签的区域,实现对新的物体类别的识别及聚类。通过实验验证,该方法能够正确聚类已知和未知类别的对象,并且比现有的监督式方法具有更快的处理时间及更高的性能。
Jul, 2019
本篇论文提出了一种使用合成 RGB 和深度图像数据实现表面外目标实例分割的新方法,该方法能够学习非真实感 RGB-D 数据,并在机器人抓取任务中表现出色。
Jul, 2019
基于图像的机器人操纵系统,利用多个视角捕捉目标物体,推断深度信息以补充其几何信息,采用几何一致性融合视角,实现精确操纵决策。
Oct, 2023
介绍了在混乱场景中进行机器人感知的方法,在 Amazon 机器人挑战赛中获得胜利。作者提出了两种策略:一种是基于深度度量学习的方法,另一种是基于全监督语义分割方法的方法,并在数据集上进行了全面分析。两种方法都有良好效果,值得进一步研究。
Sep, 2017
该论文提出了一个自超视自学的物体分割系统,其训练过程利用了点云的超分割结果,利用图匹配算法和点云配准结合检测出 3D 假标签上的再现物体模式并生成 2D 掩码。实验证明,该方法在真实和合成的视频数据集上的表现优于现有的无监督方法。
Apr, 2023