机器人应用中 LiDAR 自监督学习测距法
本文提出了一种自监督的 LiDAR 测距法 ——SelfVoxeLO,通过使用 3D 卷积网络对点云数据进行特征提取,利用 LiDAR 点云的内在属性设计了多种新颖的损失函数,并引入了一种不确定性感知的机制来减轻运动物体 / 噪声的干扰,该方法在 KITTI 和 Apollo-SouthBay 数据集上的性能超过了现有的无监督方法,并且可以通过添加更多未标记的训练数据来进一步提高性能,可与有监督的方法相媲美。
Oct, 2020
利用激光雷达传感器获取的稀疏但准确的深度测量,设计了一个自监督视觉 - 激光雷达里程计 (Self-VLO) 框架,该框架通过两个路径编码器提取视觉和深度图像中的特征,并将这些特征与多尺度解码器中的特征通过融合模块融合起来,从而在端到端学习的方式下产生姿态和深度估计。实验结果表明,该方法优于所有自监督视觉或激光雷达里程计,并且优于全监督视觉里程表,证明了融合的强大表现能力。
Jan, 2021
提出了一种基于神经网络的方法,用于检测在机器人运行期间的定位问题,着重关注激光雷达测距定位模块,该方法通过模拟数据训练,可以适用于不同的环境和传感器类型,并在挑战性环境下进行了实地实验测试。
Mar, 2022
通过分析主要的失败案例并揭示优化过程的各种缺点,我们诊断了一种流行的学习型 SLAM 模型(DROID-SLAM)的关键弱点。然后,我们提出使用自监督先验,利用冻结的大规模预训练单眼深度估计初始化稠密捆绑调整过程,从而实现鲁棒的视觉里程计,无需对 SLAM 骨干进行微调。尽管方法简单,但在 KITTI 里程计和具有挑战性的 DDAD 基准上,我们的方法显示出显著的改进。代码和预训练模型将在发表后发布。
Jun, 2024
本研究提出了一种自监督学习方法用于激光雷达帧的语义分割,通过结合 SLAM 和光线追踪算法实现自动化注释,训练预测机器人移动场景中的固定结构和可动目标的深度学习模型,同时改进机器人的导航和本地化性能,为机器人导航和目标定位提供了新的途径。
Dec, 2020
本文提出了一种用于雷达中自学习检测鲁棒关键点从而进行里程计估计和度量本地化的自监督框架。通过在我们的架构中嵌入可微分的基于点的运动估计器,我们仅通过本地化误差学习关键点的位置、分数和描述符,该方法避免了对什么是鲁棒关键点的任何假设,并且能够应用于大多数模态。在牛津雷达机器人车数据集的 280 公里真实驾驶实验中,我们改善了基于点的雷达里程表的最新研究成果,将误差降低了 45%,同时速度提高了一个数量级,并可同时解决度量环路闭合的问题。结合这些输出,我们提供了一个能够在城市环境下使用雷达进行完整地图绘制和本地化的框架。
Jan, 2020
使用深度神经网络进行图像生成任务以提取高级特征,进而估计视觉里程碑的深度和位姿,同时利用光流和循环神经网络以及生成对抗网络改进深度和位姿的估计精度。
Sep, 2023
自动驾驶堆栈中,3D 物体检测是最重要的组成部分之一,但当前最先进的激光雷达物体检测器需要昂贵而缓慢的人工注释才能取得良好性能。我们引入了一种自我监督方法来训练 SOTA 激光雷达物体检测网络,该方法仅基于未标记的激光点云序列工作,我们称之为轨迹规范化自我训练。我们演示了我们的方法对于多个 SOTA 物体检测网络在多个真实世界数据集上的有效性。
Mar, 2024
通过引入一种基于深度学习的实时 LiDAR 测距法,我们可以联合学习准确的帧间对应关系和模型的预测不确定性,从而为定位预测提供安全保护的证据,同时通过部分最优 LiDAR 特征描述符转换和联合学习的方式提高位置估计的鲁棒性,并展示了预测不确定性能如何在需要时作为位置图优化的证据,在 KITTI 数据集上验证了方法的竞争性性能和优越的泛化能力。
Aug, 2023
本文介绍了一种使用卷积神经网络从 3D LiDAR 扫描中进行测距估计的新方法。使用 IMU 传感器支持和备用 CNN 模型实现了高质量的测距估计和 LiDAR 数据注册。该方法可以用于取代轮式编码器进行测距估计或补充缺失的 GPS 数据,为室内映射提供实时性和精度。
Dec, 2017