用于数据高效的视觉地点识别的回归变换器
本论文提出了一种改进的视觉定位方法,通过使用连续相似性标签和广义对比损失函数代替传统的二元相似性标签和硬对样本挖掘,使得视觉识别表现得到了明显提升。
Mar, 2023
基于视觉特征的图像识别的主要挑战是从不同视点识别地点,为了克服这个限制,我们提出了一种名为 EigenPlaces 的新方法,通过从不同视角聚类训练数据,将视点的稳健性融入到学习的全局描述符中,实验证明 EigenPlaces 在大多数数据集上表现优于现有方法,并且训练时所需的 GPU 内存减少了 60%,描述符的大小减小了 50%。
Aug, 2023
PlaceFormer 是一种基于 Transformer 的视觉地点识别方法,它利用来自 Transformer 的 patch tokens 创建全局图像描述符,并通过几何验证选择与任务相关区域相对应的补丁,生成跨不同补丁尺寸的相似度分数,最终用于重新排列初始检索到的图像。在基准数据集上进行的广泛实验表明,PlaceFormer 在准确性和计算效率方面优于几种最先进的方法,且所需时间和内存较少。
Jan, 2024
本文介绍了一种新颖的基于 Transformer 的全局位置识别模型 TransVPR,该模型在多尺度上聚合任务相关特征,并通过空间匹配实现对全局视觉特征的候选人重新排序,具有最先进的性能并且计算时间和存储要求相对较低。
Jan, 2022
本文提出一种利用深度神经网络的高阶层进行场所识别以及运用描述符归一化方案提高场所识别鲁棒性的方法,并在两个数据集上进行验证,结果显示相比于现有技术具有显著的改进。
Jan, 2018
利用预训练的模型实现可视化地点识别的平滑适应,既全局又局部地适应预训练模型,通过轻量级适配器调整以产生适用于地点匹配的全局和局部特征,并避免耗时的空间验证,在少量数据和训练时间下超过当前最先进方法,并仅使用两阶段地点识别方法运行时间的约 3%,在 MSLS 挑战榜单上排名第 1。
Feb, 2024
该论文旨在提高基于图像的位置估计方法(Visual Place Recognition)的精度,作者通过提出一种连续的地点描述符回归方法(Continuous Place-descriptor Regression),在已有的参考图片上进行插值和外推,以增加参考图片的密度,通过实验结果发现该方法可以提高约 30% 的定位精度,相比使用视角不变损失函数,该方法可以额外提高约 15%。
Apr, 2023
本文旨在探究利用先前的地图信息对动态场景中的目标进行检测,进而提出了一种基于二进制分类神经网络的算法,该算法能够验证查询图像的检测,并通过参考地图图片得出高精度检测的集合,且证明该方法在不同数据集和环境下能够提升车辆检测性能。
Jun, 2023