- NocPlace: 运用生成和遗传知识迁移的夜间视觉地点识别
VPR is crucial in computer vision, and this paper proposes NocPlace, a system that addresses the cross-domain problem of - AAAI视觉地点识别的深度单应矩阵估计
通过基于 Transformer 的深度单应估计网络,利用密集特征图进行几何验证,以提高视觉地点识别的速度和精度。通过在无需额外标签的情况下联合训练主干网和单应估计网络,优化特征提取和局部匹配,实验证明该方法在性能上超过了多个最先进的方法, - VOLoc: 压缩激光雷达地图查询的视觉位置识别
本文介绍了一种利用城市规模激光雷达地图的准确高效的视觉地点识别方法 VOLoc,该方法通过几何相似性在实时捕获的图像序列中直接查询压缩的激光雷达地图,实现了比激光雷达到激光雷达地点识别更好的定位精度。
- ICLR实现预训练模型在视觉地点识别中的无缝适应
利用预训练的模型实现可视化地点识别的平滑适应,既全局又局部地适应预训练模型,通过轻量级适配器调整以产生适用于地点匹配的全局和局部特征,并避免耗时的空间验证,在少量数据和训练时间下超过当前最先进方法,并仅使用两阶段地点识别方法运行时间的约 3 - 用于数据高效的视觉地点识别的回归变换器
通过将地点识别视为回归问题,使用相机视野重叠作为相似性标准进行学习,使图像描述符与评级相似性标签直接对齐,提高排名能力,同时节省昂贵的重排操作,实现了高效数据训练和在多个基准数据集上的强大泛化。
- PlaceFormer:基于多尺度图像块选择和融合的基于 Transformer 的视觉地点识别
PlaceFormer 是一种基于 Transformer 的视觉地点识别方法,它利用来自 Transformer 的 patch tokens 创建全局图像描述符,并通过几何验证选择与任务相关区域相对应的补丁,生成跨不同补丁尺寸的相似度分 - 多技术顺序信息一致性在变化环境中的动态视觉地点识别
多顺序信息一致性 (多音乐) 是一个利用顺序信息在在线每帧基础上选择最具连贯性技术的 VPR 系统,通过分析各技术的前几个匹配候选的帧间连续性,然后直接进行比较选择当前查询图像的最佳技术,该系统在不同基准数据集上提高了整体 VPR 性能,避 - 聚合多个生物启发式图像区域分类器用于有效且轻量级的视觉地点识别
提出了一种改进的多 DrosoNet 定位系统,名为 RegionDrosoNet,具有显著提高的 VPR 性能和低计算复杂度,充分考虑了外部模型差异,并引入了新的投票模块来组合所有 DrosoNet 的输出以得出最终的位置预测结果,该方法 - AAAIDistilVPR:视觉地点识别的跨模态知识蒸馏
使用多模态传感器数据在视觉地点识别(VPR)中的应用已经展现出与单模态对应物相比有着更强的性能表现。然而,集成额外的传感器会增加成本,并且对于需要轻量级操作的系统可能不可行,从而影响了 VPR 的实际部署。为了解决这个问题,我们采用了知识蒸 - 可视化位置识别的低比特量化神经网络的设计空间探索
通过研究紧凑卷积网络架构和后训练量化对视觉地点识别(VPR)性能的影响,我们不仅通过 recall@1 分数测量性能,还测量内存消耗和延迟,为受资源限制的 VPR 系统提供了设计建议。
- 视觉地点识别的最优输运聚合
通过 SALAD 方法,利用 DINOv2 作为 backbone,优化了视觉地点识别任务,提高了描述符的质量,并在公共 VPR 数据集中超越了单阶段和双阶段方法。
- 脉冲神经网络在视觉地点识别中的应用
在机器人领域,脉冲神经网络(SNNs)在神经元形态硬件上的实现为其高效能源、低延迟带来了巨大的潜力。我们的论文着重介绍了 SNN 在视觉场所识别(VPR)中的三个创新。首先,我们提出模块化 SNN,每个 SNN 代表一组非重叠的地理位置,为 - DINO-Mix: 优化视觉地点识别的基础视觉模型和特征混合
通过利用 DINOv2 模型作为骨干网络对图像进行修剪和微调以提取鲁棒的图像特征,我们提出了一种名为 DINO-Mix 的新颖的 VPR 架构,通过基础视觉模型的强大图像特征提取能力和基于 MLP-Mixer 的特征聚合模块,实现全局鲁棒和 - 从合成的场景图进行的跨视图自定位
通过将原始图像的视图不变外观特征和合成图像的视图依赖空间 - 语义特征相结合,利用图神经网络进行压缩学习和识别,该方法在一个包含多个未见过视觉的交叉视图自定位数据集中得到了验证。
- 蒸馏技术提高低质量查询的视觉位置识别
通过改进深度学习方法,使用高质量的查询图像为在线计算的视觉定位提供更好的特征表示,从而提高低质量查询图像的视觉定位性能。
- AANet:半硬正例样本挖掘的聚合对齐网络在分层地点识别中的应用
通过提出一种称为 AANet 的统一网络,该网络能够提取候选物体的全局特征并通过动态对齐局部特征进行重新排序,从而显著提高视觉地点识别(VPR)的效率,并使用一种称为 ShPSM 的半硬正样本挖掘策略选择更具鲁棒性的正样本进行训练。在四个基 - ClusVPR:基于聚类加权 Transformer 的高效视觉地点识别
ClusVPR 是一种新颖的方法,通过引入基于聚类的加权变换网络(CWTNet)来解决视觉偏差问题,并且在大规模 VPR 问题中取得了优越的性能。
- PlaceNav: 通过地点识别进行拓扑导航
通过将拓扑导航分为机器无关和机器特定组件,利用视觉地点识别对子目标选择进行优化,运用贝叶斯滤波提高导航性能,本研究提出了一种新模型,室内导航任务成功率提高了 76%,室外导航任务成功率提高了 23%。
- 在混乱的现实场景中使用视觉变换增强地标检测
本研究提出了一种能够有效利用视觉 Transformer 的方法,通过精选和隔离图像中与遮挡物相对应的特定区域,以改进视觉地点识别中的地标检测问题,在拥挤的实际情境中显示了视觉 Transformer 的潜力,并证明了该方法的卓越准确性。
- ICCVEigenPlaces: 视觉地点识别中训练鲁棒视角模型
基于视觉特征的图像识别的主要挑战是从不同视点识别地点,为了克服这个限制,我们提出了一种名为 EigenPlaces 的新方法,通过从不同视角聚类训练数据,将视点的稳健性融入到学习的全局描述符中,实验证明 EigenPlaces 在大多数数据