本研究中,我们建立了从地标特征中提取的描述符,该描述符还编码了视图中地标的空间分布,匹配描述符然后强制实施地标在视图之间的相对位置的一致性,这对性能有显着影响。在 10 个图像对数据集上的实验中,每个数据集都由 200 个城市地点组成,观察位置和条件有显着差异,我们记 录了大约 70% 的平均精度(在 100% 召回率下),而使用整个图像 CNN 特征获得了 58%,[1] 方法获得了 50%。
Aug, 2016
该研究通过训练两个卷积神经网络 (CNN) 架构来实现特定位置识别任务,并采用多尺度特征编码方法生成具备不变性的特征。通过建立具有变化外观的特定场所数据集 (SPED),该研究综合评估了所训练的网络,并证明相对于其他场所识别算法和预训练的 CNN,其性能平均提升了 10%。
Jan, 2017
本文介绍了一种基于 CNN 模型的场所识别技术,在空间和时间维度上使用组合得到 CNN 模型的强大特征,并应用于一些基准数据集进行评估,该技术在召回率上取得了 75%的提升和 100%精度,明显优于之前所有的最新技术。在本文中,还对所有 21 个层的特征进行了全面的性能比较,包括基准数据集和一个具有更大视角变化的第二个数据集。
Nov, 2014
该研究论文概述了地点识别领域的文献综述,介绍了传统的图像描述方法以及最近使用卷积神经网络进行视觉地点识别的进展。
Jun, 2017
该研究提出了一种采用卷积神经网络(VGG16)的激活层对地点图像进行编码的视觉地点识别系统。该系统采用了类似于图像检索流程的两阶段方法,并在第二阶段使用 CNN 特征来编码语义和空间信息,其效果在常见基准数据集上明显优于其他方法。
Sep, 2019
本文提出了一种采用 LaplaceKL 目标和对抗训练框架的深度学习方法,处理具有挑战性数据的面部地标检测技术,并通过使用未标记的数据来提高模型性能,具有实时表现、实用价值,并在所有的 300W 基准测试中取得最佳效果及在人脸地标的 AFLW 数据集中排名第二。
Mar, 2019
基于场景地标检测的摄像头定位方法,采用卷积神经网络(CNN)检测少量特定的场景 3D 点或地标,并从相关的 2D-3D 对应中计算摄像头姿态,具有与基于 3D 结构的方法相当的准确性,但速度更快且使用存储空间更少。
Jan, 2024
我们提出了一种新颖的卷积神经网络,用于面部标志坐标回归。我们调查了训练用于标志检测的标准 CNN 的中间特征,并展示了从更专业的层提取的特征捕获了大致的地标位置。这为在网络中途应用差分处理提供了自然手段,根据面部对齐调整处理。所得的 TCNN 模型,以外观敏感的方式利用 CNN 对标志检测的健壮性,而不用训练多部分或多尺度模型。我们在标准面部标志检测和面部验证基准测试上的结果显示,TCNN 超过了以前发表的表现。
Nov, 2015
本文提出了一种基于深度学习的方法,通过视觉定位,使用锚点来预测场景的位置和摄像机方向或姿态(6 自由度),该方法使用统一定义的锚点并提出了一个深度学习架构,该架构预测场景中存在的最相关的锚点以及相对偏移量,并为该任务提出了一个多任务损失函数,无需基于真实位置信息评定,并在 CambridgeLandmarks 和 7 Scenes 上进行了实验以验证效果。与使用相同的特征提取器的先前最佳深度学习模型 Posenet(具有几何重投影损失)相比,我们的方法提升了室内和室外定位数据集中的中位误差,并在特定情况下,如街景中,将中位误差降低了 8m 以上。
Nov, 2018
提出了一种高效的端到端方法,用于标注和排序地标图像,采用卷积神经网络将图像嵌入到高维特征空间,并使用视觉相似性分类图像,采用相似性重新排名预测,过滤噪声。使用该方法在 2020 年的 Google 地标识别挑战赛中获得了第一名。
Oct, 2020