我们提出了一种新颖的多视图光度立体(PS)方法,利用神经形状表示和学习渲染器,显式利用像素强度渲染,模拟每个点的入射辐照度并使用全神经材质渲染器进行优化,同时通过估计法线和分割图最大化表面精度,达到在距离为 1.5m、分辨率 400x400 的情况下,超过经典方法 DiLiGenT-MV 的平均 0.2mm 的沙耶缝距离,对低光计数场景的异常法线具有鲁棒性,使用像素渲染距离仅为 0.27mm。
May, 2024
通过采用一种基于网格的更密集的点描述符光栅化方法,以及前景 / 背景场景渲染分离和改进的损失函数,我们在单个场景上进行训练而不是在 ScanNet 上进行训练并进行场景微调的 NPBG 的情况下实现了数据高效学习和快速视图合成,并且表现优于 NPBG 和与 SVS 竞争,尽管 SVS 具有更深的神经渲染基准。
Aug, 2022
本文提出了一种新型网络,利用少量稀疏图像输入,能够恢复三维场景几何信息和高分辨率彩色图像,并通过粗略到精细的球形追踪技术可以大幅提高速度,方法在多个数据集中都取得了可比较的精度。
Aug, 2021
通过结合多视角全景图像、鲁棒的相机位姿估计、先进的图像处理以及点云密度化、网格重建和纹理生成等技术,本论文提出了一个增强型的多视角立体重建框架,显著提高了传统方法的准确性和精度,在处理遮挡和视角变化的复杂场景重建方面表现出了优异的计算效率和鲁棒性,对于实时处理和可扩展性要求高的情况,可以与当前最先进的神经隐式场方法相竞争甚至超越。
Jun, 2024
本研究提出了一种基于神经反演渲染的多视角光度立体(MVPS)方法,能够同时估算几何形状、材料和光源,并且在人工渲染、再照明和材质编辑方面具有较高的精度。
Jul, 2022
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
MVSGaussian 是一种新的通用化的三维高斯表示方法,通过多视点立体视觉 (MVS) 有效重建未见过的场景,具有实时渲染速度和良好的综合质量。
本研究提出了一种新的深度学习点云渲染管道,通过多平面投影将点云特征投射到摄像机视锥体的分层体积中,然后通过卷积神经网络产生多层图像,并根据学习到的权重混合图像,最终实现对具有挑战的场景进行更稳定的渲染。
Dec, 2019
本研究提出了一种基于点的方法,使用可学习的神经描述符来编码局部几何和外观信息,并学习深度渲染网络生成具有照片般逼真感觉的场景视图,同时避免显式表面估计和网格化,并适用于各种复杂场景,包括使用 RGB-D 传感器与标准 RGB 相机进行扫描的场景。
Jun, 2019
本文提出了一种名为 NPBG++ 的系统用于新视角合成任务,通过使用多视角观测和静态场景的点云预测每个点的神经描述符,从而在低场景拟合时间的情况下实现高渲染逼真度,且不需要每场景优化的要求,从而在多方面优于神经点图形管道。
Mar, 2022