基于特征聚合和条件预测的实时 3D 语义场景补全
本文提出了一种基于几何学的策略来将深度信息与低分辨率体素表示相结合,通过 3D 素描感知特征嵌入编码几何信息并采用半监督先验学习策略来引导占用推理和语义标签的推断,该方案在三个公共基准测试中一致优于现有技术。
Mar, 2020
使用密集 - 稀疏 - 密集的设计,采用几何先验和占据信息,从语义感知和占据感知种子体素中扩散语义,实现基于相机的语义场景完成 (SSC) 框架。在 SemanticKITTI 数据集上的实验结果表明,该方法优于现有的最先进方法。
Dec, 2023
本文针对通过单视图深度图来获取场景的完整三维体素表示和语义标签的语义场景完成任务,提出了一种端到端三维卷积神经网络 SSCNet,该网络能够同时输出所有摄像机视图锥体中体素的占用和语义标签。SSCNet 使用基于扩张的三维上下文模块来高效地扩展感受野并进行三维上下文学习。实验结果表明,该联合模型比各自解决每个任务的方法表现更好,并且在语义场景完成任务上优于替代方法。
Nov, 2016
本研究提出了一种新的深度学习框架 CCNPNet,它采用级联金字塔结构模型和引导型残差细化模块,可从单张深度图像中推断出体素化 3D 场景的占用率和语义标签,并在 SUNCG 和 NYU 数据集上取得了优于现有方法的高质量 SSC 结果。
Aug, 2019
本文介绍了一种名为 Semantic Scene Completion 的任务,提出了一个使用点和体素来预测 3D 场景语义和占用表示的点 - 体素聚合网络,该网络使用深度点流来高效捕捉场景中的语义信息,以及只含两个 3D 卷积层的轻量化体素流来保持场景的局部结构。通过使用各向异性体素聚合操作融合体素流中的结构细节,以及使用基于语义标签的传播模块来增强点流中的上采样过程,该模型在两个基准测试中超过了当前最先进技术。
Dec, 2021
我们提出了一种名为 S4C 的第一种自我监督方法,不依赖于 3D 完整数据,能够从单张图像中重建场景,并且只依赖于视频和训练期间从现成图像分割网络生成的伪分割地面实况。与现有方法不同,我们将场景表示为隐式语义场,通过渲染为基础的自我监督损失训练我们的架构,取得了接近完全监督最新方法的性能,并且表现出强大的泛化能力,可以为远距离视点合成准确的分割地图。
Oct, 2023
提出了一种考虑不确定性的基于摄像头的三维语义场景完成方法,同时提出了一种层次化的置信度预测方法,能够增强几何完成和语义分割准确性,提高安全关键类别的占用召回率,实现更小的预测集大小并保持指定的覆盖保证,为自主感知系统的准确性和鲁棒性带来显著进展。
Jun, 2024
基于单目摄像机的三维语义场景完成研究,提出了 DepthSSC 方法,通过 ST-GF 模块和几何感知体素化相结合,动态调整体素分辨率,考虑三维空间的几何复杂性,以确保空间与深度信息的精确对齐,成功解决了以往方法中存在的空间错位和畸变问题。通过在 SemanticKITTI 数据集上的评估,DepthSSC 不仅表现出在捕捉复杂的三维结构细节方面的有效性,还取得了最先进的性能。我们相信 DepthSSC 为基于单目摄像机的三维语义场景完成研究提供了新的视角,并希望它能激发更多相关研究。
Nov, 2023