雷达场:基于频率 - 空间的神经场景表示法用于 FMCW 雷达
本文提出了一种基于神经场的雷达(NFL)方法,该方法旨在从 LiDAR 测量中优化神经场场景表示,以便合成来自新视点的逼真的 LiDAR 扫描。该方法与 LiDAR 传感过程的详细、物理上可靠的模型相结合,能够准确地再现关键传感器行为,如光束发散、次级返回和光线丢失。我们在合成的和实际的 LiDAR 扫描上评估了 NFL,并表明它在 LiDAR 新视点合成任务上优于显式重建 - 模拟方法以及其他类似 NeRF 的方法。此外,我们展示了综合视图的改善逼真性将领域差距缩小到实际扫描,并转化为更好的注册和语义分割性能。
May, 2023
本研究提出了一种基于连续波 ToF 相机的神经表征模型,改进了动态场景的重建质量及鲁棒性,讨论了将 RGB+ToF 传感器集成到现代智能手机上的益处和局限性。
Sep, 2021
该论文主要研究使用神经辐射场(NeRF)方法对合成和真实场景进行 3D 重建,包括利用多分辨率哈希编码等技术在静态和动态场景重建方面的研究。其中,还着重探讨了神经辐射场(D-NeRF)对动态场景重建的应用,并成功将其推广至真实世界动态场景。
Oct, 2022
本综述全面研究了语义感知的神经辐射场(NeRFs)在视觉场景理解中的作用,覆盖了 250 多篇学术论文的分析。它探讨了 NeRFs 在场景中熟练推断静态和动态物体的三维表示的能力,并介绍了其在生成高质量新视点、补全场景细节(修复)、进行全面场景分割(全景分割)、预测三维边界框、编辑三维场景和提取以物体为中心的三维模型方面的重要性。本研究的一个重要方面是将语义标签应用为视点不变函数,有效地将空间坐标映射到一系列语义标签的过程,从而便于识别场景中的不同物体。总体而言,本综述强调了在视觉场景解释的背景下,语义感知的神经辐射场的发展和多样应用。
Feb, 2024
利用多模态数据结合深度学习模型进行密集三维重建,从而提高自动驾驶中的标注验证、数据扩充、缺失 LiDAR 系统的地面真值注释以及自动标记准确性的应用效果。
Feb, 2024
通过利用时间观察重建室外三维场景是一个具有挑战性的问题,本文介绍了一种利用神经场的新方法 - Gated Fields,它结合了主动门控视频序列和光照,在各种环境光照条件下实现了精确且密集的几何重建。
May, 2024
提出一种新的逆向渲染框架,能够从一组 RGB 图像中联合重建场景几何、空间变化的材料和 HDR 照明,并支持物理场景操作,例如射线跟踪阴影投射。
Apr, 2023
通过使用语义信息并在少量的图片上建立 occlusion filtering module,我们提出了一个学习框架来重建神经场景表征并演示了其在 Phototourism 数据集上在 few-shot 场景下优于最先进的 novel view synthesis 方法。
Mar, 2023