不回头:强化视角和条件不变地点识别的稳健性分类
通过一系列新兴的基于语义和外观的技术,使用卷积特征图从一种状态到另一种状态的本地语义张量(LoST)表述,以及从语义上开采显着的关键点对应来实现高性能的地方识别。
Apr, 2018
基于视觉特征的图像识别的主要挑战是从不同视点识别地点,为了克服这个限制,我们提出了一种名为 EigenPlaces 的新方法,通过从不同视角聚类训练数据,将视点的稳健性融入到学习的全局描述符中,实验证明 EigenPlaces 在大多数数据集上表现优于现有方法,并且训练时所需的 GPU 内存减少了 60%,描述符的大小减小了 50%。
Aug, 2023
本文綜合評估和比較了三種先進的 ConvNets 在導航機器人的特定挑戰中的實用性,並優化了現有 (局部敏感哈希) 和新的 (語義搜索空間劃分) 優化技術,實現了基於 ConvNets 實時地點識別性能的提升,證實了語義地點分類的網絡也在 (特定) 地點識別方面表現更好。
Jan, 2015
本研究提出了一种新的深度 - 时间感知视觉地点识别系统,通过提取深度过滤关键点序列,对与单个查询图像中的关键点进行比较,解决了对立的视角和极端外观变化视觉地点识别问题,实验证明在多个基准数据集上表现优异,还进行了一系列模拟实验,以表征深度过滤关键点序列在关键域参数方面的贡献。
Feb, 2019
通过将地点识别视为回归问题,使用相机视野重叠作为相似性标准进行学习,使图像描述符与评级相似性标签直接对齐,提高排名能力,同时节省昂贵的重排操作,实现了高效数据训练和在多个基准数据集上的强大泛化。
Jan, 2024
通过对 Nordland 数据集进行预处理和划分,同时采用预训练、siamese 以及三元组等多种神经网络结构,在单视角地点识别的研究中取得了领先的结果,克服了天气变化等问题。
Aug, 2018
本文提出一种轻量化的视觉地点识别方法,具备低计算成本的高性能,适用于面临视角和外观变化的移动机器人。通过多个基准数据集的结果证实,相对于现有方法,平均准确率提升 13%,平均速度提升 12 倍。
Nov, 2018
使用全景相机的视觉地点识别方法提出了新的全向卷积神经网络 (O-CNN) 来处理极端相机姿态变化,并通过距离估计提出了启发式策略来为机器人导航,从而实现以最小距离寻找任务。
Mar, 2018
该研究通过训练两个卷积神经网络 (CNN) 架构来实现特定位置识别任务,并采用多尺度特征编码方法生成具备不变性的特征。通过建立具有变化外观的特定场所数据集 (SPED),该研究综合评估了所训练的网络,并证明相对于其他场所识别算法和预训练的 CNN,其性能平均提升了 10%。
Jan, 2017