SpikeNeRF:从连续脉冲流中学习神经辐射场
使用高时间分辨率的脉冲相机,我们提出了 Spike-NeRF,一种基于脉冲数据的神经辐射场,用于高速场景的三维重建和新视点合成。通过设计特殊的脉冲掩蔽和损失函数,我们从高频但不稳定的脉冲数据中重建了准确且稳定的三维场景,并通过合成实验验证了其优于现有方法和基线模型在高速场景中的视觉效果。
Mar, 2024
本文提出了脉冲神经元网络(SpikingNeRF),通过将辐射光线与 SNN 的时间维度对齐,以自然地适应 Radiance Fields 的重建,使计算以脉冲为基础,无需乘法运算,从而降低能耗。
Sep, 2023
我们提出了一种名为 pixelNeRF 的学习框架,可以在仅有一张或几张输入图像的条件下预测连续的神经场景表示。与现有方法相比,我们的体系结构不需要每个场景都进行优化,从而使得在仅有一张图像的情况下就可以执行视角的合成和单幅图像的三维重建。经过大量的实验证明,我们的模型在形状、类别和实景等方面都优于现有的最先进技术。
Dec, 2020
通过 NeRF 的方法来实现对于图像的 View Synthesis, 本文提到了 NeRF 的成功之处以及在应用于大规模无界三维场景中进行改进,使其在 360° 的拍摄模式下提高拍摄质量。
Oct, 2020
神经辐射场是一种有效的新视点合成和三维场景重建方法。我们提出了一种连续学习框架,通过回放方法结合混合的显式和隐式场景表示来训练神经辐射场,从而在连续设置中优于先前方法的重建质量,并在速度上有数量级的提升。
Sep, 2023
该论文提出了一种名为 Sparse Neural Radiance Grid 的新方法,它使用学习的稀疏体素网格表示,通过对神经辐射场(Neural Radiance Fields)进行预处理和存储(烘焙)来实现实时渲染。通过该方法,可以在以往的基础上保留了 NeRF 渲染精细几何细节和视图相关外观的能力,实现在普通硬件上进行实时渲染。
Mar, 2021
NeVRF 利用神经辐射场与基于图像的渲染相结合,通过引入新颖的多视图辐射混合方法从多视图视频中直接预测辐射,实现对长时间动态内视场景的逼真新视点合成。通过利用连续学习技术,NeVRF 能够高效重构顺序数据的帧,不需要重新访问先前的帧,从而实现长时间自由视点视频。此外,通过一种量身定制的压缩方法,NeVRF 能够紧凑地表示动态场景,在实际应用中使动态辐射场更加实用。我们的实验证明了 NeVRF 在实现长时间序列渲染、顺序数据重构和紧凑数据存储方面的有效性。
Dec, 2023