BA-Net:密集型捆绑调整网络
本研究设计了一种以物理驱动的 DeepSFM 体系结构,对深度和姿态进行估计,在显式结构约束和深度学习技术的共同作用下,实现了与传统 BA 和新兴深度学习技术的优点相结合的分离拍摄下位姿和深度估计
Dec, 2019
该论文通过使用图注意力网络解决学习结构运动(Structure-from-Motion)的问题,通过学习模型以 2D 关键点为输入,输出对应的相机姿态和 3D 关键点坐标,实现了快速推理和重建,超过了竞争的基于学习的方法并在较短的时间内挑战了 COLMAP。
Aug, 2023
本文介绍了一种新颖的框架实施几何密集束调整(DBA),使用 3D 神经隐式表面进行地图参数化,通过密集光流预测引导的几何误差来优化地图表面和轨迹姿态,进一步改进了密集 * 映射的质量。我们在多个行驶场景数据集上的实验结果表明,我们的方法在轨迹优化和密集重建精度方面取得了优越的效果。我们还研究了光度误差和不同的神经几何先验对表面重建和新视角合成性能的影响。我们的方法是利用神经隐式表示在密集束调整中实现更准确的轨迹和详细环境映射的重要一步。
Apr, 2024
提出了一种将轻量级深度完成网络集成到稀疏 SLAM 系统中的新方法,使得即使在移动手机上也可以在线进行稠密建图,具有广泛的 AR/VR 应用价值。通过对多尺度深度表示进行优化,通过 BBC-Net 网络对稀疏点云进行多平衡基和置信度图的预测,最终的深度是通过线性组合权重进行优化,同时设计了一组深度权重因子以确保效率和鲁棒性,并将该方法集成到两个代表性 SLAM 系统中,实验证明了该方法在单目稠密建图方面的优越性。
Sep, 2023
本文提出了一种几何感知的神经网络 SfM-Net,可用于视频中的运动估计,通过分解场景和物体深度、相机运动、3D 物体旋转和平移来处理像素运动,该模型可通过不同程度的监督训练,包括自监督、相机运动监督和深度监督,成功地估计出帧间相机旋转和平移,并对运动物体进行了有效地分割。
Apr, 2017
本研究通过深度神经网络与多传感器信息紧密结合,实现可靠的视觉同时定位与建图,在大规模环境中实现实时的高密度地图构建。
Mar, 2024
本文提出了一种基于加速采样和哈希编码的框架 BAA-NGP,它能够加快位姿估计、场景重建和新视角合成的处理速度,并在不降低位姿估计质量的情况下,比其他基于束调整的神经辐射场方法提高了十倍至二十倍的速度。
Jun, 2023
我们提出了一种新颖的三维重建框架 CBARF,通过级联更新相机姿态和使用邻近替换策略来优化姿态和合成新视角,实验结果表明 CBARF 在姿态优化和新视角合成方面取得了最先进的性能。
Oct, 2023