该研究提出了一种基于分离正交平面、软翻转融合策略、特征组装机制和三重注意力的室内布局估计方法,通过实验表明其在四个基准测试中具有优越性能。
Mar, 2023
本研究提出了一种针对单个室内 360 度图像的平面感知卷积神经网络方法,可实现密集的深度和表面法向估计以及平面边界识别,此外,添加测地线坐标图作为网络先验可显著提高表面法向预测准确性,最终可以将网络的输出组合用于生成高质量的室内场景 3D 模型。
Jul, 2019
本论文提出了一种名为 Im2Pano3D 的卷积神经网络,该网络可以仅基于部分观察(<=50%),即 RGB-D 图像,为室内全景视图生成 3D 结构的稠密预测和语义标签的概率分布,其利用大规模合成和实际环境内部场景中学习到的强大的语境先验来实现。
Dec, 2017
该论文提出了一种从单个全景图像中恢复室内场景的三维布局恢复新方法,该方法结合几何推理和深度学习技术,从而提取结构角并生成房间的布局模型,并在 SUN360 和 Stanford 公共数据集上进行实验。
Jun, 2018
PlanarRecon 是一种基于神经网络的新框架,通过在视频中逐渐检测 3D 平面,实现了对场景的全局连贯检测与重构,并在 ScanNet 数据集上取得了最新的最优性能。
Jun, 2022
基于改进的实例分割架构的实时平面重建模型 SoloPlanes,同时预测每个平面实例的语义、平面参数和分段平面实例掩码,通过提供特征空间中的多视角指导,在单张图像推理时同时预测语义,并以 43 帧每秒的实时预测效果。
Nov, 2023
通过提出正交平面解缠网络 (DOPNet) 以分辨模糊语义和针对水平深度与比例的无监督自适应技术,本研究在全景布局估计和多视角布局估计任务中优于其他 SoTA 模型。
Dec, 2023
使用单个非中心全景图,通过几何推理从室内环境中恢复 3D 布局,利用深度学习提取结构线的边界并利用非中心投影系统的特性进行新的几何处理以恢复比例尺,解决了曼哈顿环境和亚特兰大环境的遮挡问题,改进了现有的单幅全景图的 3D 布局恢复方法,是第一个使用深度学习进行非中心全景图及其布局比例尺恢复的研究。
Feb, 2024
该研究通过使用 OPlanes 表示法,将单视图 RGB-D 人类重建问题转化为在通过相机视锥切面的平面上的占位符预测,从而实现更精确的预测结果。在具有其他障碍物和部分可见性的复杂情况下,该方法在 S3D 数据上实现了更好的表现。
Aug, 2022
本研究提出了一种使用深度神经网络 (DNN) 从单个 RGB 图像重建分段平面深度图的方法,该方法可以直接从单个 RGB 图像学习一组平面参数和相应的分割掩码,并且在评估中表现出比基准方法更好的平面分割和深度估计精度。该方法是第一个可以从单个 RGB 图像进行分段平面重建的端到端神经网络结构。
Apr, 2018