PanelNet:通过面板表示理解 360 室内环境
本文提出了一种使用深度先验的方法,从单个全景图中同时复原物体形状、定向边界框和三维房间布局,为了充分利用丰富的上下文信息,设计了一个基于 transformer 的上下文模块来预测场景各组成部分之间的表示和关系。实验表明,我们的方法在布局估计和三维物体检测方面优于先前的全景场景理解方法。同时,本文还引入了一个包括照片逼真的全景图、高保真深度图、精确注释的房间布局和定向物体边界框和形状的真实世界数据集。
May, 2023
该论文提出了一种从单个全景图像中恢复室内场景的三维布局恢复新方法,该方法结合几何推理和深度学习技术,从而提取结构角并生成房间的布局模型,并在 SUN360 和 Stanford 公共数据集上进行实验。
Jun, 2018
本论文提出了一种名为 Im2Pano3D 的卷积神经网络,该网络可以仅基于部分观察(<=50%),即 RGB-D 图像,为室内全景视图生成 3D 结构的稠密预测和语义标签的概率分布,其利用大规模合成和实际环境内部场景中学习到的强大的语境先验来实现。
Dec, 2017
该研究探索了半监督学习和三维室内布局重建的交叉领域,提出了使用标记和未标记数据学习房间角和边界表示的方法,利用 360 度全景场景实现了改进的室内布局估计。实验结果表明,该方法同样精准,仅需使用 12%的标记数据。这项工作是实现使用有限标记数据进行三维感知的强大半监督布局估计的重要第一步。
Mar, 2021
利用视域深度和房间高度可以在水平和垂直方向上获得全向几何感知,提出了一种平面几何感知损失函数,使用局部和全局几何关系的 SWF-Transformer 建立几何关系模型,以及相对位置嵌入增强空间识别能力,证明 LGT-Net 在基准数据集上比当前最先进技术表现更好。
Mar, 2022
本文提供了一种适用于全景图像的深度学习模型,并结合目标检测和语义分割任务实现了室内场景中物体的识别与分离,进而生成定位在三维物体边界上的三维包围盒。量化和定性结果证明了我们的方法优于现有技术并且能够完整理解室内场景中的主要物体。
Oct, 2019
介绍了一种用于 360 度图像的单目表面法线估计架构 PanoNormal,通过使用多级全局自注意机制和考虑球面特征分布,结合了 CNN 和 ViTs 的优势,实现了在多个流行的 360 度单目数据集上的最先进性能。
May, 2024
本文提出了一种名为 PanoSwin 的简单而有效的架构,用于学习具有 ERP 的全景表示。通过探索全景式位移窗口方案和新颖的俯仰注意力分别解决边界不连续和空间失真的挑战,并利用绝对位置嵌入和相对位置偏差来增强全景几何信息。同时,通过设计一种新颖的两阶段学习框架,从平面图像向全景图像进行知识转移,实验结果表明 PanoSwin 在全景理解方面具有有效性。
Aug, 2023
本文提出了使用球形卷积,设计了一个名为 OmniLayout 的网络,该网络直接在球面表面上进行卷积,并使用新的评估指标证明了该网络可以有效地解决全景图像中局部扭曲的问题,最终在两个基准数据集上的表现也优于其他同类网络。
Apr, 2021
该论文总结和描述了从 360 全景图中预测布局的常见框架、变体和设计决策所产生的影响,同时提出了 Matterport3D 数据集的扩展注释和两个基于深度的评估指标。
Oct, 2019