一种自监督微型一次性纹理分割 (MOSTS) 模型,用于实时机器人导航和嵌入式应用
室内自由空间分割方法,利用无监督掩蔽技术根据纹理均匀性和深度均匀性生成分割标签,结合密集预测 Transformer 中提取的特征与高深度区域生成超像素,通过在自定义室内数据集上对估计的自由空间掩码和 DPT 特征表示进行精调,展示了在复杂场景中表现良好,包括拥挤障碍物和自由空间较难识别的情况。
Nov, 2023
本研究探讨了在各种环境(GPUs、输入大小等)下,最成功的语义场景分割模型在推断速度方面的行为,以比较研究现有的最先进的分割模型并选择最符合机器人应用要求的模型。
Aug, 2021
本论文将多目标跟踪扩展到多目标跟踪和分割(MOTS)。为此,我们使用半自动注释程序为两个现有的跟踪数据集创建密集的像素级注释。通过我们的新注释,我们提出了一个新的基线方法,该方法使用单个卷积网络共同处理检测、跟踪和分割。我们演示了我们数据集的价值,在 MOTS 注释上训练可以提高性能,我们相信我们的数据集、指标和基线方法将成为开发超越 2D 边界框的多目标跟踪方法的宝贵资源。
Feb, 2019
本文介绍了一种新型的自动生成训练数据代码库,以及改进了最先进的多目标跟踪和分割方法。文章提出了跟踪挖掘算法和 MOTSNet 的深度学习跟踪方法,并在 KITTI MOTS 数据集上取得了显著的性能提升。
Dec, 2019
本文提出了使用自监督学习训练的 Transformer 网络定位多个物体的方法 MOST,并通过分形分析检测出前景补丁上的代币,将代币聚类生成边界框,最终在 PASCAL-VOC 07、12 和 COCO20k 数据集上表现优于其他方法,同时表明 MOST 可以用于目标检测的自监督预训练,并在全、半监督目标检测和非监督区域提议生成方面获得一致的改进。
Apr, 2023
本文针对自动驾驶中的一个基本任务,即识别场景前方可以安全行驶区域,提出了一种新颖实用的方法 —— 在最小程度的人工监督下,利用自由空间的同质纹理和位置特征进行分割,实验结果表明该方法在使用更少的监督情况下比其他弱监督方法表现更好,为自主驾驶系统适应不同类型车辆和环境提供了新的可能性。
Nov, 2017
本文提出了一种高效而健壮的技术,实现了 3D 室内场景的即时密集语义分割和重建,该方法基于高效的超体素聚类方法和来自结构和对象线索的高阶约束的条件随机场,无需预先计算即可进行渐进式密集语义分割。通过对 SceneNN 和 ScanNet 数据集中的不同室内场景进行广泛评估,证明了该技术在定性和定量实验中始终能够产生最先进的分割结果。
Apr, 2018
本文提出了一种新的多对象跟踪方法,该方法利用无序的 2D 点云表示来生成实例嵌入,从随机选择的点中学习辨别实例嵌入,利用多种信息数据模态来丰富点特征,基于此建立了在线 MOTS 系统 PointTrack,在三个数据集上进行评估,并构建了一个更具挑战性的 MOTS 数据集 APOLLO MOTS。
Jul, 2020
本文提出了一种基于 RGB-D 传感器的道路机器人避障系统,使用两阶段语义分割网络生成语义地图以便进行局部路径规划,采用光流监督和运动模糊增强的训练方法,实现室内外道路机器人的无碰撞自主导航。
Aug, 2019
本文提出了一个实时语义分割基准测试框架,包括特征提取和解码方法的分离设计,采用不同的网络架构和分割方法,在城市场景的 Cityscapes 数据集上进行了实验,并展示了与 SegNet 相比可实现 143 倍 GFLOPS 减少的优势。
Mar, 2018