基于摄像头的稀疏引导网络的三维语义场景补全
本文提出了一种基于几何学的策略来将深度信息与低分辨率体素表示相结合,通过 3D 素描感知特征嵌入编码几何信息并采用半监督先验学习策略来引导占用推理和语义标签的推断,该方案在三个公共基准测试中一致优于现有技术。
Mar, 2020
我们提出了一种名为 S4C 的第一种自我监督方法,不依赖于 3D 完整数据,能够从单张图像中重建场景,并且只依赖于视频和训练期间从现成图像分割网络生成的伪分割地面实况。与现有方法不同,我们将场景表示为隐式语义场,通过渲染为基础的自我监督损失训练我们的架构,取得了接近完全监督最新方法的性能,并且表现出强大的泛化能力,可以为远距离视点合成准确的分割地图。
Oct, 2023
基于单目摄像机的三维语义场景完成研究,提出了 DepthSSC 方法,通过 ST-GF 模块和几何感知体素化相结合,动态调整体素分辨率,考虑三维空间的几何复杂性,以确保空间与深度信息的精确对齐,成功解决了以往方法中存在的空间错位和畸变问题。通过在 SemanticKITTI 数据集上的评估,DepthSSC 不仅表现出在捕捉复杂的三维结构细节方面的有效性,还取得了最先进的性能。我们相信 DepthSSC 为基于单目摄像机的三维语义场景完成研究提供了新的视角,并希望它能激发更多相关研究。
Nov, 2023
提出了一种考虑不确定性的基于摄像头的三维语义场景完成方法,同时提出了一种层次化的置信度预测方法,能够增强几何完成和语义分割准确性,提高安全关键类别的占用召回率,实现更小的预测集大小并保持指定的覆盖保证,为自主感知系统的准确性和鲁棒性带来显著进展。
Jun, 2024
本文针对通过单视图深度图来获取场景的完整三维体素表示和语义标签的语义场景完成任务,提出了一种端到端三维卷积神经网络 SSCNet,该网络能够同时输出所有摄像机视图锥体中体素的占用和语义标签。SSCNet 使用基于扩张的三维上下文模块来高效地扩展感受野并进行三维上下文学习。实验结果表明,该联合模型比各自解决每个任务的方法表现更好,并且在语义场景完成任务上优于替代方法。
Nov, 2016
本文提出了一种实时语义场景完整方法,具有特征聚合策略和条件预测模块,通过特征聚合和两步预测方案来提高语义场景完整预测性能。在三个基准测试上进行实验,并在一个 GTX 1080 Ti GPU 上以每秒 110 帧的速度取得了有竞争力的性能。
Mar, 2023
提出了三种解决方案,包括对完成子网络的重新设计,使用知识蒸馏从多帧模型中提取知识以及完成标签修正,并在 SemanticKITTI 和 SemanticPOSS 数据集上进行了扩展实验。SCPNet 表现出比竞争对手更好的结果,展示了场景完成中学习到的知识对语义分割任务的有益性。
Mar, 2023
本文介绍了一种名为 Semantic Scene Completion 的任务,提出了一个使用点和体素来预测 3D 场景语义和占用表示的点 - 体素聚合网络,该网络使用深度点流来高效捕捉场景中的语义信息,以及只含两个 3D 卷积层的轻量化体素流来保持场景的局部结构。通过使用各向异性体素聚合操作融合体素流中的结构细节,以及使用基于语义标签的传播模块来增强点流中的上采样过程,该模型在两个基准测试中超过了当前最先进技术。
Dec, 2021