BundleRecon: 基于光束的三维神经重建
本文提出了一种基于加速采样和哈希编码的框架 BAA-NGP,它能够加快位姿估计、场景重建和新视角合成的处理速度,并在不降低位姿估计质量的情况下,比其他基于束调整的神经辐射场方法提高了十倍至二十倍的速度。
Jun, 2023
本文介绍了名为 NeuralRecon 的新型框架,可实时从单目视频中重建 3D 场景。该系统采用基于学习的 TSDF 融合模块,通过神经网络直接逐个重建局部表面,从而捕捉局部平滑性先验和全局形状先验,实现高精度,连贯和实时的表面重建。实验结果表明,该系统在准确性和速度方面均优于现有的方法。这是首个能够在实时情况下重建连贯稠密 3D 几何模型的基于学习的系统。
Apr, 2021
本文提出 RayNet 模型,将卷积神经网络和马尔可夫随机场相结合,利用视角不变特征表示和透视投影与遮挡的物理规律,重建不同视角的物体的密集三维模型。在真实世界的数据集上,该方法相较其他方法表现良好。
Jan, 2019
我们提出了一种新颖的三维重建框架 CBARF,通过级联更新相机姿态和使用邻近替换策略来优化姿态和合成新视角,实验结果表明 CBARF 在姿态优化和新视角合成方面取得了最先进的性能。
Oct, 2023
我们提出了一种从由 360 度校准相机组拍摄的一组稀疏视图中重建 3D 物体的新方法。我们通过混合模型,使用基于 MLP 的神经表示和三角形网格,表示对象表面。我们工作的一个关键贡献是一种新颖的以对象为中心的神经表示采样方案,其中的光线在所有视图之间共享。这种采样方案通过网格表示确保样本沿法线方向分布均匀。然后,通过可微分的渲染器高效地进行渲染。我们证明了这种采样方案能更有效地训练神经表示,不需要额外的分割蒙版的监督,能获得最先进的 3D 重建结果,并且适用于 Google 的 Scanned Objects、Tank and Temples 和 MVMC Car 数据集的稀疏视图。
Sep, 2023
基于光线组合的相机姿势的分布式表示以及基于回归和扩散的方法,在 CO3D 数据集上展现了最新的性能,并在未见过的物体类别和野外捕捉中表现出广泛适应性。
Feb, 2024
提出了一种基于多视角立体技术的神经重建框架 CVRecon,使用创新的 3D 几何特征表示方法 RCCV,可以显着提高三维几何重建质量和恢复细节。
Apr, 2023
介绍了一种用于集成多视角反射和法线映射的通用范例。它使用像素级联合参数化反射和法线,将它们视为在模拟的不同光照下渲染的辐射矢量。该方法在神经体渲染的基于 3D 重建中,实现了反射和法线映射的无缝集成,同时保留单一的优化目标,从而优于最先进的 MVPS 方法,特别是在高曲率或低可见性区域的详细 3D 重建方面。
Dec, 2023
该论文的研究结果表明在深度学习和编码器 - 解码器架构的帮助下,使用光线追踪跳跃连接和混合的 3D 模型表示技术可以从单个图像中重构出 3D 物体模型,并且同样的技术可以从单张图像中重构出多个 3D 物体模型,并处理遮挡问题。
Apr, 2020