条件不变的多视角地点识别
本文提出了一种序列化描述符提取方法,以有效地融合时空信息并生成有区别的描述符,使用滑动窗口来控制时间自我关注范围,并采用相对位置编码来构建不同特征之间的位置关系,从而捕捉帧序列中的固有动态和局部特征运动。
May, 2023
通过对 Nordland 数据集进行预处理和划分,同时采用预训练、siamese 以及三元组等多种神经网络结构,在单视角地点识别的研究中取得了领先的结果,克服了天气变化等问题。
Aug, 2018
本研究提出一种基于监控学习全局描述符跟踪变化的新型描述符 - Delta 描述符,通过考虑行进路线上观察到的地点之间的时间差异,以无监督的方式缓解原始描述符匹配空间引起的偏移。我们使用两个基准数据集演示了 Delta 描述符在孤立情况下的高性能,进一步通过融合序列匹配方法实现了最新的性能表现,在相机运动方面具有更强的内在鲁棒性,并降低了维数降低时的性能退化率。
Jun, 2020
该论文提出了一种多传感器融合、动态匹配序列长度技术和自动处理方法权重方案相结合的新颖的图像处理方法,在识别质量度量分析的基础上,提高了定位的性能要求,实现了优于两种最先进的视觉地点识别系统的结果。
Mar, 2019
本文提出一种新型混合系统,使用 SeqNet 生成临时描述符,并结合单图片学习描述符进行选择性控制序列得分汇总,以创建高性能初始匹配假设生成器,进而在挑战性基准数据集上达到超越现有最先进方法的效果。
Feb, 2021
在这篇论文中,我们提出了使用结构线索来增强基于图像的位置识别,这是通过利用结构运动获得的,因此不需要为位置识别使用任何其他传感器,这是通过将基于图像的位置识别通常使用的 2D 卷积神经网络与从结构运动点云导出的体素网格作为输入的 3D CNN 相结合来完成的。我们评估了不同的方法来融合 2D 和 3D 特征,并通过全局平均汇集和简单的串联获得了最佳性能。在牛津机器人车数据集上,得到的描述符表现优于仅从一个输入模态性提取的描述符,包括最先进的基于图像的描述符。特别是在低描述符维度下,我们的表现超过最先进的描述符高达 90%。
Feb, 2020
该研究通过训练两个卷积神经网络 (CNN) 架构来实现特定位置识别任务,并采用多尺度特征编码方法生成具备不变性的特征。通过建立具有变化外观的特定场所数据集 (SPED),该研究综合评估了所训练的网络,并证明相对于其他场所识别算法和预训练的 CNN,其性能平均提升了 10%。
Jan, 2017
本研究中,我们建立了从地标特征中提取的描述符,该描述符还编码了视图中地标的空间分布,匹配描述符然后强制实施地标在视图之间的相对位置的一致性,这对性能有显着影响。在 10 个图像对数据集上的实验中,每个数据集都由 200 个城市地点组成,观察位置和条件有显着差异,我们记 录了大约 70% 的平均精度(在 100% 召回率下),而使用整个图像 CNN 特征获得了 58%,[1] 方法获得了 50%。
Aug, 2016
本文提出一种利用深度神经网络的高阶层进行场所识别以及运用描述符归一化方案提高场所识别鲁棒性的方法,并在两个数据集上进行验证,结果显示相比于现有技术具有显著的改进。
Jan, 2018