CPO: 改进鲁棒性普通全景转换为点云定位
本文提出了简单高效的 PICCOLO 算法,通过对点云与全景图片进行配准,利用采样损失将实现了全方位定位的单张图像查询。相比传统的基于像素点的光度损失函数,基于采样的损失函数能够有效地克服全向图像的严重视觉扭曲,并利用全局上下文处理具有挑战性的视觉定位场景,在各种环境下都超越现有算法的准确性和稳定性。
Aug, 2021
介绍了一种利用 2D-3D 线条几何的轻量级而准确的定位方法,通过全景视图来定位,避免了训练或手工制作视觉描述符,提取线条关系中的主导方向和非平行线条的交点等以表达独特而紧凑的空间上下文,其结果表示与传统视觉描述符方法相比,处理时间和内存上更加高效;验证了该方法在具有相似结构、领域转变或光照变化的挑战性场景中的定位效果;由于是完全几何的方法,无需进行庞大的参数调整或神经网络训练,因此具有实际应用价值,可以直接部署在实际世界中。
Mar, 2024
我们提出了一种新的端到端算法(PoCo)用于室内 RGB-D 场所识别任务,旨在识别给定查询帧在参考数据库中最可能的匹配。我们提出了一种新的网络架构,通过端到端学习直接从噪声点云中提取全局描述符,并将颜色和几何模态集成到点特征中以增强全局描述符表示。我们在公共数据集 ScanNet-PR 和 ARKit 上进行了评估,结果显示 PoCo 在性能和效率方面均优于已发表的最佳结果 CGis,并证明了 PoCo 在识别实际实验室环境中的位置方面的有效性。
Apr, 2024
通过建立参考地图并使用 EP2P-Loc 方法,本文提出了一种新颖的大规模视觉定位方法,绕过 2D 和 3D 感知模态之间的表示差异,从而实现端到端的姿态估计,并在实验中表现出与现有视觉定位方法和图像到点云注册方法相比的最先进性能。
Sep, 2023
本文研究如何利用深度学习估计点云里程计,并提出了一个称为 DeepPCO 的新型神经网络模型,可通过估计连续点云来预测 6 自由度姿态,实验结果表明该方法在位姿准确性方面表现良好。
Oct, 2019
提出一种新的稳健 PCA 方法,用于自由移动相机视频的前景背景分离,可处理可能的稠密和稀疏污染。该方法可以注册受损视频的帧,然后将由相机运动引起的透视差异编码为全局模型中的缺失数据。我们将已注册的视频建模为低秩成分,平滑成分和稀疏成分的总和。该方法在实践中已经表现出卓越的表现。
Dec, 2017
通过利用全景图像的综合视角,我们提出了一种自监督学习的方法,通过构建当前深度预测的 3D 点云并在不同视角投影点云,或者对当前输入图像进行拉伸生成合成全景图,进而最小化合成图像估计的 3D 结构的差异,从而在机器人导航和无地图定位任务中展现了显著的性能提升,这将帮助实现实际基于全景图像的机器视觉系统的广泛应用。
Aug, 2023
通过对 RGB-D 和基于点云的视觉控制策略进行实验,我们发现明确编码点云的策略在可视条件变化下显著更加稳健,同时我们提出的点云世界模型(PCWM)在训练过程中大幅提升样本效率,这些结果表明通过点云对三维场景进行推理可以改善性能、缩短学习时间并提高机器学习算法的稳健性。
Apr, 2024
本文介绍了 OmniColor,一种使用独立的 360 度相机对点云进行染色的新颖高效算法,通过在重建几何图像上联合优化所有帧的姿态,克服了全景图像的严重视觉畸变,并且在精确性和稳定性方面从 360 度相机的宽视角中获得了很大的好处。
Apr, 2024
本文介绍了 SPVLoc,一种全球室内定位方法,能够准确确定查询图像的六维(6D)相机姿态,无需过多的现场特定先验知识和训练,采用了一种新颖的匹配过程,在室内环境的一组全景语义布局表示中定位了透视相机的视口,这些全景图由未贴图的 3D 参考模型渲染而成,仅包含关于房间形状的大致结构信息以及门窗标注。通过一个直接的卷积网络结构,我们展示了成功实现了图像到全景图以及图像到模型的匹配。通过视口分类得分,我们对参考全景图进行排名并选择最佳匹配的查询图像。然后,我们估计所选全景图与查询图像之间的六维相对姿态。我们的实验表明,这种方法不仅有效地弥合了领域差距,而且对先前未见过的训练数据之外的场景具有很好的泛化性能。此外,它在定位准确度上也比现有方法更优越,并且能估计更多自由度的相机姿态。我们将在此 https URL 上公开发布我们的源代码。
Apr, 2024