LiDAR 语义分割的即时域增强
该论文设计了第一个实验环境,研究激光雷达语义分割的域泛化问题。通过提出一种具有传输学习功能的网络模型,有效地减少了领域之间的差距,从而解决了同领域分割方法不能满足跨领域泛化问题的难题。
Apr, 2023
利用 LiDAR 传感器获取关于场景的精确几何信息支持自动驾驶,本文提供一种新颖的数据集,旨在为源数据集的性能评估提供跨领域评估,同时提供一个灵活的在线基准测试,以确保各种方法之间的公平比较。
Oct, 2023
提出了一种适用于动态场景的 LiDAR 数据增强方法 D-Aug,该方法通过提取对象并将其插入动态场景,考虑这些对象在连续帧之间的连续性,并采用参考引导方法实现无缝插入动态场景,同时还提出了像素级道路识别策略来有效确定适合的插入位置,通过与不同的 3D 检测和跟踪方法在 nuScenes 数据集上进行验证,实验证明了 D-Aug 方法的优越性。
Apr, 2024
该研究旨在发展一种统一模型,能够处理不同的 LiDAR 数据集,实现多个数据集的训练和在异构平台上的部署,通过几何重新对齐和语义标签映射来促进训练并减少性能下降。通过在 OpenOccupancy-nuScenes 和 SemanticKITTI 两个著名数据集上进行全面实验,验证了 UniLiDAR 在填补 LiDAR 领域差距方面的有效性,相比直接合并数据集训练的模型,其占有率预测的 mIoU 分别提高了 15.7% 和 12.5%,并且优于在个别数据集上训练的多种最先进方法。
Mar, 2024
自动驾驶中的 LiDAR 数据集存在诸如点云密度、范围和物体尺寸等属性偏差,因此在不同环境中训练和评估的物体检测网络往往会遇到性能下降的问题。为了解决这个问题,域自适应方法假设可以获取来自测试分布的未标注样本。但是,在实际世界中,部署条件和获得代表测试数据集的样本可能无法获得。我们认为,更现实和具有挑战性的形式是要求对未知目标域具有性能的鲁棒性。我们提出了一种双重方式来解决这个问题。首先,我们利用大多数自动驾驶数据集中存在的配对的 LiDAR - 图像数据进行多模态物体检测。我们建议通过利用图像和 LiDAR 点云的多模态特征来进行场景理解任务,从而使得物体检测器对未知域的转换更加鲁棒。其次,我们训练一个 3D 物体检测器,在不同分布之间学习多模态物体特征,并促进这些源域之间的特征不变性,以提高对未知目标域的泛化性能。为此,我们提出了 CLIX$^ ext {3D}$,它是一个用于 3D 物体检测的多模态融合和有监督对比学习框架,它在对不同数据集转换下实现了最先进的域泛化性能。
Apr, 2024
通过使用 LiDAR 传感器和场景语义,我们提供了一种新的仅依靠 LiDAR 传感器的增强型原始扫描的稠密伪点云框架,无需摄像机,该框架首先利用分割模型从原始点云中提取场景语义,然后使用多模态的域转换器生成伪图像分割和深度提示,从而生成一种富含语义信息的稠密伪点云,并通过引入新的语义引导投影方法增强检测性能。
Sep, 2023
本研究提出了一种新的基于统计学习方法的 LiDAR 全景分割的 UAD 方法,该方法利用数据依赖性和模型依赖性的两种不同的策略来解决无监督域适应问题,并在真实世界自动驾驶数据集上进行了广泛评估,结果显示该方法在 PQ 得分方面优于现有的 UDA 方法高达 6.41pp。
Sep, 2021
通过 CycleGANs 从未配对的数据中进行图像转换,以实现从模拟 LiDAR 到真实 LiDAR(sim2real)的传感器建模,从低分辨率到高分辨率的真实 LiDAR(real2real)的生成以及使用鸟瞰图和极坐标 2D 表示法处理 LiDAR 3D 点云。实验结果表明,该方法具有很高的潜力。
May, 2019
利用空间几何对齐和时间运动对齐构建自适应域归一化方法,以头显和机械扫描激光雷达的点云数据为例,实现了跨设备 3D 检测的最新性能水平。
Dec, 2022