PRAM:用于高效视觉定位的任意地点识别模型
利用预训练的模型实现可视化地点识别的平滑适应,既全局又局部地适应预训练模型,通过轻量级适配器调整以产生适用于地点匹配的全局和局部特征,并避免耗时的空间验证,在少量数据和训练时间下超过当前最先进方法,并仅使用两阶段地点识别方法运行时间的约 3%,在 MSLS 挑战榜单上排名第 1。
Feb, 2024
通过使用通用特征表示和无监督特征聚合,本研究提出了一种适用于各种结构化和非结构化环境的通用视觉地点识别 (VPR) 解决方案,并取得了相较于现有方法高出 4 倍的显著性能提升,同时对特征进行语义属性建模获得 6% 的性能改善。
Aug, 2023
这篇论文在研究机器人领域中呈现了地点识别(PR)的关键技术作用,特别是在同时定位与建图(SLAM)2.0 的框架下。通过综述 PR 的最新技术进展和挑战,强调了 PR 在机器人领域广泛应用的重要性,并提供了一个面向新开发和基准测试的开源包,以及一个讨论 PR 未来发展方向的结论。
May, 2024
本研究旨在通过多尺度注意力模块,实现从视觉和语义内容中学习鲁棒全局嵌入以及动态引导的分割过程,以提高视觉地点识别的准确性,同时提出第一个适用于地点识别和分割任务的合成世界数据集,实验证明方法在不同情景下具有良好性能。
Jan, 2022
本文介绍了一种新颖的基于 Transformer 的全局位置识别模型 TransVPR,该模型在多尺度上聚合任务相关特征,并通过空间匹配实现对全局视觉特征的候选人重新排序,具有最先进的性能并且计算时间和存储要求相对较低。
Jan, 2022
使用新的特征聚合方法,通过注册器辅助模型训练,以获取具有辨别性地点信息的全局和局部特征,并通过重新分配注意力权重将这些注册器舍弃,从而实现对原始图像表示中不稳定特征的有效分离,其表现超过了现有方法
May, 2024
本文提出了一种基于深度学习的方法,通过视觉定位,使用锚点来预测场景的位置和摄像机方向或姿态(6 自由度),该方法使用统一定义的锚点并提出了一个深度学习架构,该架构预测场景中存在的最相关的锚点以及相对偏移量,并为该任务提出了一个多任务损失函数,无需基于真实位置信息评定,并在 CambridgeLandmarks 和 7 Scenes 上进行了实验以验证效果。与使用相同的特征提取器的先前最佳深度学习模型 Posenet(具有几何重投影损失)相比,我们的方法提升了室内和室外定位数据集中的中位误差,并在特定情况下,如街景中,将中位误差降低了 8m 以上。
Nov, 2018
本文提出了一种运行时和数据高效的分层视觉场所识别(VPR)管道,通过结合数据驱动和免训练方法,在降低训练数据和影响训练与应用阶段分布差异方面取得了良好的平衡,该方法在大规模应用中表现出了更好的性能。
Mar, 2024
本研究分析了图像分辨率对基于手工制作的 Visual Place Recognition (VPR) 管道的精度和鲁棒性的影响,并旨在帮助学术研究人员和公司在硬件和软件行业共同设计 VPR 解决方案以及扩展 VPR 算法在商业产品中的应用。
May, 2023
本文提出了一种基于语义增强的注意力学习网络方法,该方法利用本地加权方案和语义先验信息提高视觉地点识别(VPR)任务的表现,并在城市级别的 VPR 基准数据集上实现了优越性能。
Aug, 2021