BARF: 捆绑调整神经辐射场
我们提出了一种新颖的三维重建框架 CBARF,通过级联更新相机姿态和使用邻近替换策略来优化姿态和合成新视角,实验结果表明 CBARF 在姿态优化和新视角合成方面取得了最先进的性能。
Oct, 2023
本文介绍了一种新的基于高斯激活函数的神经辐射场模型 ——Gaussian Activated neural Radiance Fields(GARF),该模型不需要先验的相机位姿信息,且在高保真重建和位姿估计方面性能优于当前的最先进技术。
Apr, 2022
本文提出了一种基于像素灵活对齐以及帧级约束参数对齐的局部到全局检测方法 L2G-NeRF,该方法能够成功解决通过细节学习的 3D 表示及相机对齐的约束因素对神经辐射场的应用所带来的巨大限制。
Nov, 2022
这篇论文提出了一种基于多视角几何约束、利用稀疏输入视角和深度一致性损失函数的方法: Sparse Pose Adjusting Radiance Field (SPARF),以在仅有少数宽基线输入图像的情况下 (尽低至 3 张),实现新视角合成,同时在多个具有挑战性的数据集上取得了新的最先进结果。
Nov, 2022
CT-NeRF 是一种仅使用 RGB 图像而不需要姿态和深度信息的增量重建优化管道,通过本地 - 全局捆绑调整和重投影几何图像距离约束,实现对相机姿态和场景结构的恢复,能够处理具有复杂轨迹的场景,并在新视角合成和姿态估计准确度方面优于现有方法。
Apr, 2024
描述了一种基于神经辐射场的方法,通过优化连续的体形变场使移动设备拍摄的照片 / 视频重建变形场景,旨在生成高度逼真的渲染图像。实验表明,该方法可使用手机拍摄的自拍照片 / 视频转换成可变形的 NeRF 模型,并在任意视点产生高保真度的视图。
Nov, 2020
提出了用于去模糊的神经光辐射场(NeRF)的事件驱动捆绑调整方法(EBAD-NeRF),该方法通过利用混合事件 - RGB 数据来联合优化可学习的姿势和 NeRF 参数,引入了强化相机运动模糊的强度变化度量事件损失和光度模糊损失,实验证明 EBAD-NeRF 在曝光时间内可以准确获得相机姿势,并学习到比以前的方法更清晰的 3D 表示。
Jun, 2024
本文提出 NeRF-- 用于学习相机内参和位姿,在各种相机运动情况下实现了准确的相机参数估计,并且在合成数据集 BLEFF 上实现了可比较的新视角渲染质量,为 2D 图像生成 3D 场景的任务提供了新思路。
Feb, 2021
通过增量式运动结构 (SfM) 启发的相机参数自由神经辐射场 (CF-NeRF) 模型,逐渐重建三维表示并恢复相机参数,能够鲁棒处理相机旋转场景,并在不提供先验信息和约束的情况下实现最先进的结果。
Dec, 2023