SimpleMapping:实时的、基于视觉惯性的深度多视角稠密建图
本篇文章提出了一种用于稀疏视觉 SLAM 系统的新型稠密建图框架,它基于一种紧凑的场景表示方式,可以用于机器人和增强现实等应用领域。该框架使用了变分自编码器,通过多视角优化可以改善重叠帧的一致性,对于任意度量的稀疏 SLAM 系统进行无缝集成,能够进行全局一致的稠密三维重建。
Jul, 2021
本文提出了基于特征体积的实时密集重建方法,采用稀疏的深度特征体积来预测 TSDF 值,通过多视角图像聚合细节信息进行时序融合,实现了比以往更高分辨率和更完整细节的三维几何图形重建,其在室内和室外场景中都比现有的方法具有更好的实时重建性能。
May, 2023
本文提出了一个轻量级的深度网络和视觉惯性测距(VIO)系统,利用提出的轻量级条件变分自动编码器(CVAE)来提高初始深度预测的精度和泛化能力,以便提供精确的状态估计和稠密的深度图。
Dec, 2020
本文研究了利用 VI-SLAM 系统从稀疏深度点云与室内场景图片中学习场景深度完成的问题,特别地,本文使用预训练的表面法向网络结合利用可用的重力估计来修正输入图像的视角限制,从而提高了表面法向估计和深度完成精度。最后,本文在 ScanNet、NYUv2 和 Azure Kinect 数据集上展示了我们的方法超越了其他最先进的方法。
Jul, 2020
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
该研究提出了一种基于 interest point detection 和 descriptor learning 的深度估计方法,通过三个步骤,匹配、三角测量和稠密化得到 3D 点云,实现了高精度和低计算消耗的双赢,将该方法与强基线进行对比,表现优越。
Mar, 2020
基于高斯喷洒的稠密视觉同时定位与建图(VSLAM)引入了一种新的框架,通过独特地将先进的稀疏视觉里程计与稠密高斯喷洒场景表示相结合,从而消除了依赖于深度图的限制并增强了跟踪的稳健性。我们的系统在各种合成和真实数据集上的评估证明了其姿态估计的准确性超越了现有方法,达到了最先进的性能,并且在新颖视角合成保真度方面胜过以前的单目方法,与利用 RGB-D 输入的神经 SLAM 系统的结果相匹配。
May, 2024
提出了一种基于立体输入的视觉里程计法的稠密建图算法,该算法针对大规模动态城市环境中的高级移动机器人任务,同时重建静态背景、移动物体和潜在移动的静止物体。
May, 2019
本文提出了一种基于自适应视觉惯性传感器融合和对抗训练的自监督深度学习方法 (SelfVIO),用于从未标记的单目 RGB 图像序列和惯性测量单元 (IMU) 读数中共同估计 6 自由度自我动作和景深图。该方法在 KITTI、EuRoC 和 Cityscapes 数据集上的表现优于目前研究领域中其他的 VIO 方法。
Nov, 2019
本文介绍了一个全新的深度学习方法来进行单目 SLAM,通过使用学习视觉里程计(L-VO)和稠密 3D 映射的神经网络,该方法能够实现同时定位与建图。
Mar, 2018