LED2-Net:基于可微深度渲染的单目 360 布局估计
该论文提出了一种从单个全景图像中恢复室内场景的三维布局恢复新方法,该方法结合几何推理和深度学习技术,从而提取结构角并生成房间的布局模型,并在 SUN360 和 Stanford 公共数据集上进行实验。
Jun, 2018
该论文的研究重点为从单目 RGB 图像中估算房间布局,采用端到端可训练的编码 - 解码网络 RoomNet 直接估算有序的房间布局关键点,实现了与最新工作相比 200-600 倍的加速和最新的性能。
Mar, 2017
通过 Seg2Reg 方法,利用 2D 分割地图生成 1D 布局深度回归,结合密度场和体积渲染实现单视图 360 度室内布局重建,同时利用 3D 扭曲增强布局以提高泛化性能。
Nov, 2023
通过混合数据集训练模型,预测几何保持的深度,并通过渲染重建场景的新视图以及设计损失函数,促进不同视角下深度估计的一致性,实现了对领域特定尺度和平移系数的自主恢复,优于现有最先进方法的多个基准数据集。
Sep, 2023
提出一种新的神经网络架构,用于解决 360° 图像中的球面视差问题,并通过学习可移位滤波器构建代价体积以缓解失真问题,实验结果表明其对现有算法具有较好的鲁棒性和准确性。
Nov, 2019
该研究探索了半监督学习和三维室内布局重建的交叉领域,提出了使用标记和未标记数据学习房间角和边界表示的方法,利用 360 度全景场景实现了改进的室内布局估计。实验结果表明,该方法同样精准,仅需使用 12%的标记数据。这项工作是实现使用有限标记数据进行三维感知的强大半监督布局估计的重要第一步。
Mar, 2021
360 度图像的深度估计是虚拟现实、自主导航和沉浸式媒体应用中至关重要的,本研究提出了一种使用未标记 360 度数据的深度估计框架,通过六面立方体投影技术生成伪标签来高效标注 360 度图像的深度,并在深度估计的准确度上展示了显著改进,特别是在零样本情况下。
Jun, 2024
本论文研究了 360 图像的深度估计问题,提出了使用重新渲染的 3D 在线数据集来解决缺乏高质量 360 数据集的挑战,并使用这个数据集实现了端对端的深度估计模型
Jul, 2018
该论文总结和描述了从 360 全景图中预测布局的常见框架、变体和设计决策所产生的影响,同时提出了 Matterport3D 数据集的扩展注释和两个基于深度的评估指标。
Oct, 2019
提出一种基于切线图像的高分辨率 360 度图像单目深度估计方法,通过将输入的 360 度图像投影到切线平面上得到透视视图,以此来支持最新的和最准确的单目深度估计器,采用可变形多尺度对齐和梯度域混合来重新组合单个深度估计,产生具有高分辨率和高细节的稠密 360 度景深图。
Nov, 2021