3D 语义场景补全:一项调查
使用密集 - 稀疏 - 密集的设计,采用几何先验和占据信息,从语义感知和占据感知种子体素中扩散语义,实现基于相机的语义场景完成 (SSC) 框架。在 SemanticKITTI 数据集上的实验结果表明,该方法优于现有的最先进方法。
Dec, 2023
提出了一种考虑不确定性的基于摄像头的三维语义场景完成方法,同时提出了一种层次化的置信度预测方法,能够增强几何完成和语义分割准确性,提高安全关键类别的占用召回率,实现更小的预测集大小并保持指定的覆盖保证,为自主感知系统的准确性和鲁棒性带来显著进展。
Jun, 2024
本文提出了一种基于几何学的策略来将深度信息与低分辨率体素表示相结合,通过 3D 素描感知特征嵌入编码几何信息并采用半监督先验学习策略来引导占用推理和语义标签的推断,该方案在三个公共基准测试中一致优于现有技术。
Mar, 2020
我们提出了一种名为 S4C 的第一种自我监督方法,不依赖于 3D 完整数据,能够从单张图像中重建场景,并且只依赖于视频和训练期间从现成图像分割网络生成的伪分割地面实况。与现有方法不同,我们将场景表示为隐式语义场,通过渲染为基础的自我监督损失训练我们的架构,取得了接近完全监督最新方法的性能,并且表现出强大的泛化能力,可以为远距离视点合成准确的分割地图。
Oct, 2023
基于单目摄像机的三维语义场景完成研究,提出了 DepthSSC 方法,通过 ST-GF 模块和几何感知体素化相结合,动态调整体素分辨率,考虑三维空间的几何复杂性,以确保空间与深度信息的精确对齐,成功解决了以往方法中存在的空间错位和畸变问题。通过在 SemanticKITTI 数据集上的评估,DepthSSC 不仅表现出在捕捉复杂的三维结构细节方面的有效性,还取得了最先进的性能。我们相信 DepthSSC 为基于单目摄像机的三维语义场景完成研究提供了新的视角,并希望它能激发更多相关研究。
Nov, 2023
实现语义场景补全 (SSC) 的 PointSSC 是首个针对语义场景补全的车辆基础设施合作点云基准,其利用点云作为轻量级替代方案,旨在提供语义标签的室外点云场景基准测试,准确度量验证真实导航中语义点云补全的进展。
Sep, 2023
MonoScene 提出了一种 3D 语义场景完成(SSC)框架,该框架从单个单眼 RGB 图像推断出场景的密集几何和语义,在 2D 和 3D UNets 的连续 2D 和 3D 特征投影的基础上引入了 3D 上下文关系先验以强制实现空间 - 语义一致性。与先前的研究不同的是,该框架在联合推断其语义的同时解决了 2D 到 3D 的场景重建问题。实验表明,我们在所有指标和数据集上均优于先前的研究,甚至能够虚构出超出镜头视野的逼真场景。
Dec, 2021
本文针对通过单视图深度图来获取场景的完整三维体素表示和语义标签的语义场景完成任务,提出了一种端到端三维卷积神经网络 SSCNet,该网络能够同时输出所有摄像机视图锥体中体素的占用和语义标签。SSCNet 使用基于扩张的三维上下文模块来高效地扩展感受野并进行三维上下文学习。实验结果表明,该联合模型比各自解决每个任务的方法表现更好,并且在语义场景完成任务上优于替代方法。
Nov, 2016
提出了三种解决方案,包括对完成子网络的重新设计,使用知识蒸馏从多帧模型中提取知识以及完成标签修正,并在 SemanticKITTI 和 SemanticPOSS 数据集上进行了扩展实验。SCPNet 表现出比竞争对手更好的结果,展示了场景完成中学习到的知识对语义分割任务的有益性。
Mar, 2023