OmnineRF 是第一个将视差功能应用于新型全景视图合成方法,通过在不同虚拟相机位置的不同 2D 全景坐标系之间进行前后投影,从而可以优化一个全向神经辐射场并实现全向视角下固定中心的可见像素的集合,以估算来自不同相机位置的新视角的图像渲染效果。
Jun, 2021
基于 NeRFs 的成功,近年来在新颖视角合成领域取得了显著进展。然而,虽然视图合成模型在视觉上看起来很真实,但其底层的 3D 模型通常是错误的,这限制了它们在实际应用中的有效性。本技术报告介绍了视图合成模型和 3D 重建模型之间的关键区别,并指出了使用深度传感器进行准确几何建模的重要性。通过扩展 Plenoxel 辐射场模型,我们对基于 RGB-D 数据的辐射场密集建图和跟踪任务提出了一种分析微分方法,实现了优于竞争神经网络方法的最新成果,并具有更快的速度。
Jul, 2023
本文提出了一种从单个 RGBD 输入合成新视角图像的方法,通过利用 RGBD 图像中嵌入的深度信息,将 NVS 任务转换成图像转换问题,并使用生成对抗网络实现类似于从新视角拍摄的照片的结果,而不受传统多图像技术的限制。
Nov, 2023
从由摄像头和扫描器捕捉的 RGB 图像和激光雷达扫描序列中,使用我们的扩展方法,生成具有深度信息的 3D 表面,以及合成新颖的 RGB 图像。
Nov, 2021
通过深度学习的全景深度估计和新视角渲染,本研究提出了 MSI-NeRF 方法,能够在虚拟现实应用中保留和利用原始鱼眼相机中的视差信息,实现全景的深度估计和六自由度视角合成。
Mar, 2024
本研究评估了 Neural Radiance Fields 在工业机器人应用中的潜力,并提出了一种替代 Structure from Motion 预处理的方法,通过基于机器人运动学的度量尺度确定了精确的相机姿态,表明在具有挑战性的场景中具有明显优势,并展示了在缺乏真实数据的情况下,应用集成方法估计合成新视图的质量的初步结果。
May, 2024
通过 Re-Nerfing 方法,我们在 Neural Radiance Fields 的基础上使用多阶段的方法增加场景的覆盖范围,提高新视角的几何一致性,并通过新合成的图像实现结构和极线约束的优化,对 mip-NeRF 360 数据集进行的实验证明了 Re-Nerfing 的有效性。
Dec, 2023
本研究提出利用全局和局部特征构建表达式三维模型的方法,通过训练 MLP 网络,实现从单个未定位图像中合成新视角,并在多个物体类别上进行泛化,获得了比现有方法更出色的性能和更丰富的细节渲染。
Jul, 2022
该研究论文提出了一种名为 Du-NeRF 的双重神经辐射场方法,可同时实现高质量的几何重建和视角合成,大大改善了室内环境下的新视角合成和三维重建性能,并对不服从多视角颜色一致性的细几何构造尤为有效。
Jan, 2024
SfMNeRF 提出了一种基于神经辐射场的方法,结合自监督深度估计方法对样本进行重构,同时利用极线和光度一致性等约束构建 3D 场景几何图像,提高了神经辐射场的表现,实现了更好地合成新视角。
Apr, 2023