从单张深度图实现语义场景补全的视点网络
本文针对通过单视图深度图来获取场景的完整三维体素表示和语义标签的语义场景完成任务,提出了一种端到端三维卷积神经网络 SSCNet,该网络能够同时输出所有摄像机视图锥体中体素的占用和语义标签。SSCNet 使用基于扩张的三维上下文模块来高效地扩展感受野并进行三维上下文学习。实验结果表明,该联合模型比各自解决每个任务的方法表现更好,并且在语义场景完成任务上优于替代方法。
Nov, 2016
3DVNet 是一种结合了先前基于深度和体积的 MVS 方法优点的新型多视图立体 (multi-view stereo) 深度预测方法,使用基于体积的三维卷积神经网络来对所有深度图进行操作,并能够学习有意义的场景级先验知识,其在深度预测和 3D 重建度量上均超越了现有技术,证明该方法在新的环境下具有很好的效果和通用性。
Dec, 2021
提出了一种基于单个编码器和三个独立生成器的新型模型,用于从单个深度图像中进行三维语义完形填空,旨在实现对原始场景和完整场景的不同几何和语义表示的重构,在模型内引入连接它们之间的路径,在相应的网络层级上连接特征,以实现信息传输,并构建了一个新的训练数据集,包括遮挡和真实噪声,在标准基准上演示了我们的方法对语义三维场景和三维物体完成的好处。
Sep, 2019
本文提出了一种基于全卷积神经网络的三维图像分割方法,通过优化 Dice 系数的目标函数,应对前景和背景体素数量极不平衡的情况,并通过数据增强技术提高数据样本的数量和多样性,实验结果表明该方法在肺部三维图像分割任务中取得了较好的性能。
Jun, 2016
本文介绍一种新策略,通过边缘检测和翻转截断有符号距离来在 3D 空间中编码颜色信息,同时提出了 EdgeNet,一种能够处理深度和边缘信息的新型端到端神经网络结构,实验结果表明该方法相比现有技术在真实数据上提高了 6.9 % 的性能表现。
Aug, 2019
本文提出 MVDepthNet,在多视图深度估计中编码多视图观察信息,并结合参考图像使用编码器 - 解码器网络生成深度图,并在单目密集映射系统中应用,实现了高效准确的深度图生成。
Jul, 2018
提出了一种名为 3DMV 的新型方法,使用联合 3D - 多视图预测网络对室内环境中 RGB-D 扫描进行三维语义场景分割。通过将 RGB 和几何特征相结合,并以一个可微的 backprojection 层将其映射到三维网格中,这种联合二维 - 三维架构实现了比现有基线方法显著更好的结果。
Mar, 2018
论文提出了一种同时预测深度估计和语义分割输出的 CNN 模型,通过对单目输入图像进行实验,我们证明了该模型对于场景理解和深度估计能力达到了最新的研究水平。
Jul, 2019
本研究旨在探讨利用生成对抗网络进行三维场景填充的潜力与效率,并通过几个数据集的实验验证了这种模型优于传统三维卷积神经网络在一定程度具有对齐的数据集内。
May, 2019