稳健的 e-NeRF:在非均匀运动下从稀疏且嘈杂的事件中恢复 NeRF
用于捕捉快速运动的刚性和非刚性变形的事件流的准确重建的管道的 EvDNeRF,可以从静态或移动视点在任何所需的时间戳之间预测动态场景的事件流,因此可用作给定场景的基于事件的模拟器。
Oct, 2023
本文提出了一种利用模型和学习模块的新方法,通过显式建模模糊形成过程和使用端到端可学习的响应函数来适应实际事件相机传感器中的非理想性,解决了运动模糊对 Neural Radiance Fields (NeRFs) 渲染图片质量的影响问题,结果显示该方法在合成和真实数据上优于仅使用帧或帧与事件相结合的已有去模糊 NeRFs,分别提高了 6.13dB 和 2.48dB。
Mar, 2024
使用高时间分辨率的脉冲相机,我们提出了 Spike-NeRF,一种基于脉冲数据的神经辐射场,用于高速场景的三维重建和新视点合成。通过设计特殊的脉冲掩蔽和损失函数,我们从高频但不稳定的脉冲数据中重建了准确且稳定的三维场景,并通过合成实验验证了其优于现有方法和基线模型在高速场景中的视觉效果。
Mar, 2024
使用尖峰相机数据,利用 SpikeNeRF 从尖峰相机数据中得出了基于 NeRF 的体积场景表示,既能在真实世界中去除错误测量,又能揭示出在各种真实世界的照明情况下一贯的结构,从而在某些场景中展现出比其他视觉传感器更大的优势。
Mar, 2024
本研究提出了一种方法,通过从单个模糊图像和对应的事件流中恢复神经辐射场来模拟相机运动,并通过最小化合成数据和真实测量值之间的差异来联合学习隐式神经场景表示和恢复相机运动。
Jul, 2024
该研究通过提出 Enhance-NeRF 模型,增强神经放射场(NeRF)在虚拟现实和增强现实等领域的三维重建应用,改进了场景识别和学习能力,有望广泛应用于照明、材质和形状的室外场景重建,具备插拔式的易用性,并能够与其他 NeRF-based 模型轻松集成。
Jun, 2023
提出了用于去模糊的神经光辐射场(NeRF)的事件驱动捆绑调整方法(EBAD-NeRF),该方法通过利用混合事件 - RGB 数据来联合优化可学习的姿势和 NeRF 参数,引入了强化相机运动模糊的强度变化度量事件损失和光度模糊损失,实验证明 EBAD-NeRF 在曝光时间内可以准确获得相机姿势,并学习到比以前的方法更清晰的 3D 表示。
Jun, 2024
该研究提出一种基于单色事件流的神经辐射场方法实现了 3D 连续、密集和逼真图像的新视角合成,该方法通过自主学习训练,使用事件相机进行样本采集,有效地提高了数据利用率并在动态场景和低光环境下表现出强大的鲁棒性。
Jun, 2022
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
使用神经辐射场 (NeRF) 作为场景的隐式表示,利用稀疏事件来更新摄像头位姿,实现了首个基于场景隐式表示和稀疏强度变化的摄像头姿态估计算法。
Apr, 2023