基于法向引导的高保真三维曲面重建的神经隐式函数
本论文提出了一种基于 RGB-D 图像的表面法向估计的分层融合网络和自适应特征再加权,设计了混合多尺度损失函数来学习准确的法向估计,实验证明了该方法在场景理解中的有效性。
Apr, 2019
提出了一种不同 iable 渲染方法以从 RGB 图像中直接学习暗示形状和纹理表示形式的三维重建,其可以用于多视角 3D 重建并产生完美的网格结果。
Dec, 2019
通过 monocular geometry prediction 预测的深度和法向量提示显着提高神经隐式表面重建的质量和优化时间,特别是在大规模复杂场景下,独立于表征的选择。
Jun, 2022
本研究提出了一种基于射线场探测技术的隐式表面的学习方法,以及一种泛函约束方法,用于无需三维监督的三维形状推断。实验表明,在单视角基础上,使用我们的方法从图像中重建三维模型,无论是定量还是定性上都优于现有技术。
Nov, 2019
通过将低频和高频区域分别表示,并结合图像锐化和去噪技术以及估计像素级表面法线向量的网络,我们的混合架构和改进的正常先验可以显著提高室内场景的重建质量。
Sep, 2023
我们提出了一种新颖的神经隐式建模方法,利用多种正则化策略在仅依赖图像的情况下实现大型室内环境的更好重建,通过稀疏但准确的深度先验将场景锚定到初始模型,并引入一种密集但精度较低的深度先验,灵活性足以让模型从中分离出来改善估计的几何建模,并提出了一种新颖的自监督策略来规范估计的表面法线,最后,可学习的曝光补偿方案适应复杂的光照条件。实验结果表明,我们的方法在具有挑战性的室内场景中产生了最先进的 3D 重建结果。
Sep, 2023
这篇论文提出了一种名为 NormalGAN 的方法,使用对立学习的方式,从单张 RGB-D 图像中重建完整且详细的 3D 人体模型,该方法利用 Normal maps 编码的 3D 表面细节信息能够更好地学习几何细节,其性能优于其他表示方式,并且能够以 20fps 的速度在消费类 RGB-D 传感器上生成完整且详细的 3D 人体重建结果。
Jul, 2020
通过体积渲染和专注深度融合先验进行多视角 RGBD 图像学习神经隐式表示,以准确进行 3D 重建。该方法利用截断有符号距离函数(TSDF)从所有可用的深度图像融合并感知粗糙三维结构,解决了通过体积渲染进行几何推断的不完整深度和被遮挡结构的问题。通过引入注意机制,直接将深度融合先验与学习到的占用情况作为神经隐式函数,该机制可以用于整个场景或同时定位和映射(SLAM)背景下的部分场景。在合成和真实世界的广泛基准测试中,该方法超越了最新的神经隐式方法。
Oct, 2023
本文提出通过联合训练隐式函数和新的粗球面基础表面重构方法解决多视角三维重建中高频细节重建效率低下的问题,并将其应用到多种隐式表面建模方法的训练过程中,从而获得在合成数据和实际数据集上的统一改进。
Sep, 2022