场所识别:视觉角度概述
本文介绍了一种基于 CNN 模型的场所识别技术,在空间和时间维度上使用组合得到 CNN 模型的强大特征,并应用于一些基准数据集进行评估,该技术在召回率上取得了 75%的提升和 100%精度,明显优于之前所有的最新技术。在本文中,还对所有 21 个层的特征进行了全面的性能比较,包括基准数据集和一个具有更大视角变化的第二个数据集。
Nov, 2014
本文綜合評估和比較了三種先進的 ConvNets 在導航機器人的特定挑戰中的實用性,並優化了現有 (局部敏感哈希) 和新的 (語義搜索空間劃分) 優化技術,實現了基於 ConvNets 實時地點識別性能的提升,證實了語義地點分類的網絡也在 (特定) 地點識別方面表現更好。
Jan, 2015
该研究通过训练两个卷积神经网络 (CNN) 架构来实现特定位置识别任务,并采用多尺度特征编码方法生成具备不变性的特征。通过建立具有变化外观的特定场所数据集 (SPED),该研究综合评估了所训练的网络,并证明相对于其他场所识别算法和预训练的 CNN,其性能平均提升了 10%。
Jan, 2017
基于视觉特征的图像识别的主要挑战是从不同视点识别地点,为了克服这个限制,我们提出了一种名为 EigenPlaces 的新方法,通过从不同视角聚类训练数据,将视点的稳健性融入到学习的全局描述符中,实验证明 EigenPlaces 在大多数数据集上表现优于现有方法,并且训练时所需的 GPU 内存减少了 60%,描述符的大小减小了 50%。
Aug, 2023
该研究提出了一种采用卷积神经网络(VGG16)的激活层对地点图像进行编码的视觉地点识别系统。该系统采用了类似于图像检索流程的两阶段方法,并在第二阶段使用 CNN 特征来编码语义和空间信息,其效果在常见基准数据集上明显优于其他方法。
Sep, 2019
本文通过调查与研究 Visual Place Recognition(VPR)的关键要素,提出一种基于视觉重叠的新的 VPR 定义,并指出未来需要深入关注的挑战和领域。
Mar, 2021
本文提出一种利用深度神经网络的高阶层进行场所识别以及运用描述符归一化方案提高场所识别鲁棒性的方法,并在两个数据集上进行验证,结果显示相比于现有技术具有显著的改进。
Jan, 2018
本文提出一种轻量化的视觉地点识别方法,具备低计算成本的高性能,适用于面临视角和外观变化的移动机器人。通过多个基准数据集的结果证实,相对于现有方法,平均准确率提升 13%,平均速度提升 12 倍。
Nov, 2018
本研究分析了图像分辨率对基于手工制作的 Visual Place Recognition (VPR) 管道的精度和鲁棒性的影响,并旨在帮助学术研究人员和公司在硬件和软件行业共同设计 VPR 解决方案以及扩展 VPR 算法在商业产品中的应用。
May, 2023