LiDAR4D: 动态神经场用于新颖时空视角 LiDAR 合成
本文提出了一种用于 LiDAR 传感器的新型视角合成任务,并介绍了一种可微分的 LiDAR 渲染器及其结合神经辐射场的端到端框架,证明了该方法在多种数据集上的优越性。
Apr, 2023
使用可学习的稀疏潜空间(即 SLS4D)来表示 4D 场景,其中动态 NeRFs 无法捕捉全局动态并产生重参数的模型。使用稠密可学习的时间槽特征描述时间空间,通过线性多层感知器预测任何时间点的 3D 位置的位移,然后使用另一个稀疏潜空间学习 3D 位置的空间特征,通过注意机制学习每个潜代码的自适应权重。实验证明了我们的 SLS4D 方法的有效性,仅利用最新工作的约 6% 的参数实现了最佳的 4D 新视角综合效果。
Dec, 2023
基于 LiDAR 扫描序列,我们提出了一种构建动态环境准确地图的新方法,利用四维场景进行稀疏特征格、全局共享解码器和时变基函数的神经表示,用于滤除动态部分并重建准确完整的三维地图。
May, 2024
本文提出了一种深度学习方法,用于复杂场景的新视角合成,通过将 3D 场景表示为光场,并采用两平面参数化的光场,用 4D 参数特征化光线,构建 4D 函数实现映射,最后采用全连接网络优化该函数并合成新视角,同时附加了 per-ray depth 预测,提高了光场渲染质量,实验表明本方法优于现有技术。
May, 2021
本文提出了一种使用基于点的表示和 Linear Blend Skinning(LBS)来联合学习动态 NeRF 和相关骨骼模型的新方法,在维持可比工作的情况下显著缩短了学习时间,在常见数据集上展示了其在重建可动物体方面的多样性和灵活性。
May, 2023
本研究提出了一种时间变化的表示方法,用于跟踪和重建动态场景,并使用动态选择策略的神经辐射场结合同时定位和建图框架,实现了更有效的动态建图方法。
Oct, 2023
本研究提出了一种基于神经场的大规模重建系统,它利用激光雷达和视觉数据生成几何精确且具有照片级真实纹理的高质量重建,同时使用激光雷达 SLAM 系统提供深度和表面法线的强几何约束来改进传统的神经辐射场表示方法。
Mar, 2024