EventNeRF:从单色事件相机中生成神经辐射场
使用 RGB 和事件相机以及异步的事件流与校正的稀疏 RGB 帧的组合,共同优化事件相机的位置和辐射场,以建模可变形的神经辐射场。该方法在处理高变形和低采样率的情况下显示出显著优势,并在真实世界数据集上进行了实验证明其对建模动态场景中的可变形神经辐射场具有良好的应用前景。
Sep, 2023
本研究提出了一种方法,通过从单个模糊图像和对应的事件流中恢复神经辐射场来模拟相机运动,并通过最小化合成数据和真实测量值之间的差异来联合学习隐式神经场景表示和恢复相机运动。
Jul, 2024
用于捕捉快速运动的刚性和非刚性变形的事件流的准确重建的管道的 EvDNeRF,可以从静态或移动视点在任何所需的时间戳之间预测动态场景的事件流,因此可用作给定场景的基于事件的模拟器。
Oct, 2023
本文提出了一种利用模型和学习模块的新方法,通过显式建模模糊形成过程和使用端到端可学习的响应函数来适应实际事件相机传感器中的非理想性,解决了运动模糊对 Neural Radiance Fields (NeRFs) 渲染图片质量的影响问题,结果显示该方法在合成和真实数据上优于仅使用帧或帧与事件相结合的已有去模糊 NeRFs,分别提高了 6.13dB 和 2.48dB。
Mar, 2024
提出了一种名为 Robust e-NeRF 的新方法,它可以在各种真实世界条件下直接且稳健地从移动事件相机中重建 NeRF,特别是从非均匀运动下生成的稀疏和嘈杂事件中。
Sep, 2023
我们提出了一种名为 pixelNeRF 的学习框架,可以在仅有一张或几张输入图像的条件下预测连续的神经场景表示。与现有方法相比,我们的体系结构不需要每个场景都进行优化,从而使得在仅有一张图像的情况下就可以执行视角的合成和单幅图像的三维重建。经过大量的实验证明,我们的模型在形状、类别和实景等方面都优于现有的最先进技术。
Dec, 2020
使用尖峰相机数据,利用 SpikeNeRF 从尖峰相机数据中得出了基于 NeRF 的体积场景表示,既能在真实世界中去除错误测量,又能揭示出在各种真实世界的照明情况下一贯的结构,从而在某些场景中展现出比其他视觉传感器更大的优势。
Mar, 2024
该论文主要研究使用神经辐射场(NeRF)方法对合成和真实场景进行 3D 重建,包括利用多分辨率哈希编码等技术在静态和动态场景重建方面的研究。其中,还着重探讨了神经辐射场(D-NeRF)对动态场景重建的应用,并成功将其推广至真实世界动态场景。
Oct, 2022
本论文提出了单视角 NeRF 框架 (SinNeRF),通过引入半监督的学习过程,利用几何标签和语义标签指导训练过程,成功实现了仅通过单个视图将神经辐射场训练到现实场景,即使在不进行多视图数据集预训练的情况下,SinNeRF 可产生逼真的新视图综合结果。
Apr, 2022