Mar, 2024

SLCF-Net: 基于 3D 循环 U-Net 的顺序式激光雷达 - 摄像机融合的语义场景补全

TL;DRSLCF-Net 是一种新颖的方法,通过顺序融合 LiDAR 和相机数据来进行语义场景补全任务,从 RGB 图像序列和稀疏的 LiDAR 测量中联合估计场景中的缺失几何和语义信息,通过预训练的 2D U-Net 对图像进行语义分割,并从基于深度的 Depth Anything 中估计密集的深度先验,利用高斯衰减深度先验投影将 2D 图像特征投射到 3D 场景体积中,并使用 3D U-Net 计算体积语义,通过传感器运动传播隐藏的 3D U-Net 状态,并设计了一种新的损失函数以确保时间一致性,在 SemanticKITTI 数据集上评估我们的方法并与领先的语义场景补全方法进行比较,结果表明 SLCF-Net 在所有的语义场景补全指标上表现出色,并展示出很好的时间一致性。