该研究通过使用汽车雷达等主动传感器,提出了基于端到端可训练模型的多视角分析方法,实现了场景的语义分割,进一步提高自动驾驶的效率和准确性。
Mar, 2021
通过使用 LiDAR 强度参数来增强离线道路环境下的物体分割,我们的方法在 RELLIS-3D 数据集上得到了有希望的结果,为学习基于语义分割框架的预测准确性提供了补充输入。
Jan, 2024
通过执行多尺度的激光雷达 - 图像融合,结合使用不确定性感知的伪标签,提高 RGB 图像和单次激光雷达扫描产生的语义地形图的准确性,进而在具有挑战性的越野环境中实现可靠和安全的自主导航。
Mar, 2024
我们提出了一种新的方法,通过一种新的架构和损失函数对雷达场景进行语义分割,从而克服了雷达数据的固有噪声、稀疏性以及前景和背景的不平衡。我们的方法 TransRadar 在 CARRADA 和 RADIal 数据集上优于现有方法,并且模型尺寸更小。
Oct, 2023
本文提出了一种数据驱动的方法,利用计算机视觉技术从聚类的雷达数据中学习用于占据栅格映射的逆传感器模型,将问题转化为语义分割任务,并演示了我们的学习占据网模型的表现优于传统方法,具有广泛的应用前景。
Mar, 2019
通过使用卷积神经网络和激光雷达数据,本研究旨在提高图像分割的效率,特别是在自动驾驶系统中的道路表面分割任务中,通过减少标注工作量并在不降低分割质量的情况下训练图像分割模型。
Nov, 2023
本文旨在研究基于传感器融合技术的三维语义分割,将 RGB 图像转化为 LiDAR 所使用的极坐标网格映射表示,并设计了早期和中期融合架构,同时提出了融合两种算法的混合融合结构。在 KITTI 数据集中评估了所提出算法的效果,并相对于仅使用 LiDAR 的基线模型,在两种最先进的算法 SqueezeSeg 和 PointSeg 上分别提高了 10% 的分割精度。
Jun, 2019
本研究提出了一种自监督学习方法用于激光雷达帧的语义分割,通过结合 SLAM 和光线追踪算法实现自动化注释,训练预测机器人移动场景中的固定结构和可动目标的深度学习模型,同时改进机器人的导航和本地化性能,为机器人导航和目标定位提供了新的途径。
Dec, 2020
本研究提出使用深度分割模型和雷达识别停车场中的空余位置。并通过对 SCORP 数据集的评估,证明该方法在雷达输入表示方面表现良好,具有低内存使用和实时处理速度,适合嵌入式部署。
Mar, 2020
使用深度学习模型产生语义信息以提高 LiDAR 扫描的点对线和点对面匹配,并构建环境的语义地图,应用于快速移动平台,提高 LiDAR 测距与建图的鲁棒性。